USA: Mann saß wegen verfälschtem KI-Beweis 11 Monate in Haft

ShotSpotter-System in Florida
Bürgerrechtsorganisationen warnen vor den fehleranfälligen Schusserkennungssystemen. (Quelle: IMAGO / ZUMA Wire)

In Chicago ist ein Mann nach elf Monaten Untersuchungshaft entlassen worden, der wegen eines Schusserkennungssystems unter Mordverdacht geraten war. Das hat die Nachrichtenagentur AP am Wochenende berichtet. Weil die Analyse des Systems nachträglich verändert wurde, hatte das Gericht das Verfahren mangels Beweisen eingestellt. Bürgerrechtler fordern einen Einsatzstopp für die Technik, da sie als unzuverlässig gilt.

Die Firma ShotSpotter verkauft ihr gleichnamiges System an Ermittlungsbehörden, die damit Schüsse in der Öffentlichkeit erkennen wollen. Die intelligenten Mikrofone werden beispielsweise an Laternen befestigt, erfassen verdächtige Geräusche und übertragen sie an das Unternehmen. Dort analysiert ein Algorithmus, ob es sich um Schüsse oder beispielsweise um einen Feuerwerkskörper handelt. Löst die Software einen Alarm aus, hören sich Angestellte die Aufnahme an – und alarmieren gegebenenfalls die Polizei. Nach Angaben von AP setzen aktuell 110 Städte in den USA die Technik ein.

Veränderte Analyse

In dem Fall in Chicago hatte der Angeklagte im Mai 2020 einen jungen Mann aus seiner Nachbarschaft im Auto mitgenommen. Nach Aussage des Beschuldigten hielt an einer Ampel ein Auto neben ihnen, aus dem ein Schuss auf den Beifahrer abgegeben wurde. Der Beschuldigte brachte den Verletzten in ein Krankenhaus, wo er später verstarb.

ShotSpotter hatte fast zwei Kilometer vom Tatort entfernt ein Geräusch aufgezeichnet, das die Software als Feuerwerkskörper kategorisiert hatte. Ein Angestellter änderte die Analyse allerdings weniger als eine Minute später – und ordnete das Geräusch manuell als Schuss ein. Laut AP wurden die Koordinaten der Geräuscherkennung zudem manuell an den Tatort verschoben. Zu solchen Änderungen komme es häufig, berichtet AP. In der Vergangenheit soll sogar die Polizei selbst in der Lage gewesen sein, die Analysen zu verändern.

Auf Grundlage der so manipulierten Daten wurde der Angeklagte festgenommen. Erst im Juli wurde das Verfahren eingestellt, nachdem die Staatsanwaltschaft die ShotSpotter-Analyse als Beweis zurückgezogen hatte. Der Beschuldigte sagte AP, er fühle sich nach dem Erlebten nicht mehr sicher und halte ständig Ausschau nach den Mikrofonen, die ihn ins Gefängnis gebracht haben.

Es ist nicht die erste Kontroverse um die Technik: Im Juli hatte das Onlinemagazin Motherboard bereits berichtet, dass auch in anderen Fällen Analyseergebnisse verändert wurden – teilweise auf Druck der Polizei. Das gehe aus Gerichtsdokumenten hervor.

So hatten Polizisten 2016 auf einen Mann in Rochester im US-Bundesstaat New York geschossen und angegeben, er habe zuerst das Feuer eröffnet. Auch in diesem Fall war die Analyse von ShotSpotter der einzige Beweis. Doch die Software hatte erkannte Geräusche ursprünglich einem Hubschrauber zugeschrieben. Erst nachdem die Polizei die Firma kontaktiert hatte, war das Ergebnis verändert worden. Ein Richter hatte den Angeklagten schließlich freigesprochen und auf die Unzuverlässigkeit der Technik verwiesen.

Ungeprüfter Algorithmus

Kritiker des Systems bemängeln seit längerem, dass der Algorithmus nie von unabhängigen Expertinnen oder Experten überprüft wurde. Die Strafverteidigerin Katie Higgins sagte AP, es sei ein verfassungsmäßiges Recht, Beweise zu prüfen. Doch im Fall von ShotSpotter sei es unmöglich, die Genauigkeit festzustellen. Im schlimmsten Fall werde eine unschuldige Person aufgrund einer unzuverlässigen Analyse verurteilt.

ShotSpotter hatte gegenüber Motherboard angegeben, dass das System Schüsse zu 97 Prozent korrekt erkenne – hatte aber selbst eingeräumt, dass diese Angabe aus der eigenen Marketingabteilung stammt. Das MacArthur Justice Center, das sich für Menschenrechte einsetzt, hatte im Mai hingegen festgestellt, dass in Chicago durch ShotSpotter in einem Zeitraum von 21 Monaten über 40.000 Fehlalarme ausgelöst wurden. Dafür wurden Daten der Stadt untersucht: In 89 Prozent der Fälle gab es keinen Schusswaffengebrauch, in 86 Prozent der Fälle wurde überhaupt keine Straftat festgestellt.

Sowohl das MacArthur Justice Center als auch die Electronic Frontier Foundation (EFF) halten diese Fehlalarme für gefährlich: Die Polizei rücke in diesen Fällen in höchster Alarmbereitschaft aus, sagte Jonathan Manes vom MacArthur Justice Center. Für Menschen, die sich zufällig in der Nähe des Fehlalarms aufhalten, werde die Situation somit zum “Pulverfass”.

Für zusätzliche Kritik in Chicago sorgt, dass ShotSpotter nur in ärmeren Vierteln mit einem hohen Anteil schwarzer Bewohner zum Einsatz kommt. Die Menschen dort seien tausenden unbegründeten Polizeieinsätzen ausgesetzt, nur weil ShotSpotter in ihrer Gegend installiert ist. Das System könne rassistische Polizeieinsätze bewirken – die Polizei in Chicago sei ohnehin für exzessive Gewalt sowie illegale und diskriminierende Kontrollen bekannt.

Chicago verlängert Vertrag

Die EFF fürchtet darüber hinaus, die Mikrofone könnten verwendet werden, um Gespräche aufzuzeichnen. Dies sei zwar normalerweise nicht zulässig, doch die Organisation berichtet von zwei Fällen, in denen Gesprächsaufnahmen von Schusserkennungssystemen in Gerichtsverfahren als Beweismittel eingebracht wurden. Einmal wurde die Aufnahme zugelassen, einmal abgelehnt.

Die Organisation fordert Städte und Polizei auf, ShotSpotter nicht weiter zu verwenden. Einige haben ihre Verträge mit dem Unternehmen aufgrund von Fehlalarmen bereits gekündigt, berichtet AP. In Chicago, wo auch Aktivistinnen und Aktivisten die Abschaffung der Technik fordern, wurde der Vertrag Medienberichten zufolge dennoch im August um zwei weitere Jahre verlängert. (js)