USA: Bürgerrechtler fordern Stopp von KI in der Migrationskontrolle

US-Grenze nach Mexiko
Einbürgern oder Abschieben – in den USA entscheiden auch Algorithmen über diese Frage. (Quelle: U.S. Customs and Border Protection)

In einem offenen Brief haben 140 zivilgesellschaftliche Organisationen das US-amerikanische Heimatschutzministerium (Department of Homeland Security – DHS) dazu aufgefordert, auf den Einsatz von sogenannter künstlicher Intelligenz (KI) bei Einwanderungsfragen zu verzichten, wenn die Systeme nicht den staatlichen Vorgaben entsprechen.

Gerichtet ist der Brief an Alejandro Mayorkas, den für das DHS verantwortlichen US-Minister für Innere Sicherheit. Zu den Unterzeichnern zählen US-Bürgerrechtsorganisationen wie die Electronic Frontier Foundation (EFF) und Just Futures Law sowie weitere gemeinnützige Organisationen, die sich etwa für bürgerliche Freiheiten, Rechte von Einwanderern oder die Rechenschaftspflicht der Regierung engagieren.

Trotz schwerwiegender Bedenken habe das DHS die Technologien an verschiedenen Stellen seiner Arbeit integriert, ohne sie ordnungsgemäß geprüft zu haben, teilte die EFF letzte Woche mit. Die beteiligten Organisationen zweifeln die Rechtmäßigkeit des KI-Einsatzes in verschiedenen Bereichen der Behördenarbeit an und warnen vor Gefahren der Programme – wie Diskriminierung, Fehleinschätzungen und mangelnde Transparenz bei den eingesetzten Algorithmen.

“Der Einsatz von KI durch das DHS scheint gegen Bundesrichtlinien für den verantwortungsvollen Einsatz von KI zu verstoßen”, heißt es in dem Brief. “Insbesondere wenn es um KI geht, die eingesetzt wird, um lebensbeeinträchtigende Entscheidungen bei der Durchsetzung der Einwanderungsbestimmungen und in der Rechtsprechung zu treffen.” Die Unterzeichner fordern deswegen den Einsatz solcher Systeme im US-Immigrationssystem zu stoppen, wenn diese nicht den Richtlinien entsprechen.

Unterabteilungen des DHS würden mit Algorithmen die Glaubwürdigkeit von Asylanträgen überprüfen oder bestimmen, ob von einer Person Gefahr für die nationale oder öffentliche Sicherheit ausgeht. Auch verweisen die Unterzeichner auf Berichte und Datenschutz-Folgenabschätzungen der Behörden, denen zufolge KI im Immigrationssystem dabei hilft, zu entscheiden, ob Familien getrennt werden – oder jemand abgeschoben, eingebürgert oder vor Folter geschützt werden soll.

Ihre Kritik stützen die Organisationen auch auf einen im Juni veröffentlichten Bericht der Menschenrechtsorganisationen Mijente und Just Future Law. Die Untersuchung beschäftigte sich mit dem Einsatz von KI und automatischer Entscheidungsfindung durch das DHS und seine Unterbehörden.

Gegen Bundesrecht

Die Organisationen kritisieren, das DHS sei rechtlich dazu verpflichtet, vor dem Einsatz von KI betroffene Gemeinschaften zu konsultieren, die Software permanent auf Fehler und Bürgerrechtsverletzungen zu untersuchen, von automatischen Entscheidungen Betroffene zu benachrichtigen sowie eine Folgenabschätzung vor der Einführung der Programme durchzuführen. Die Unterzeichner zweifeln an, dass das DHS diesen Anforderungen in der Vergangenheit nachgekommen ist. Stattdessen hätten Behörden, die dem DHS unterstellt sind, KI-Technologien im Schnellverfahren eingeführt.

Zudem habe die Öffentlichkeit bislang wenig bis gar keine Informationen über die genutzten KI-Programme erhalten. Das DHS habe unter anderem nicht darüber aufgeklärt, welche Trainingsdaten oder Algorithmen verwendet wurden und inwieweit die Behörden Auswirkungen auf die Bürgerrechte beobachten.

Von der US-Regierung beauftragte Studien hätten gezeigt, dass KI oft Diskriminierung gefördert hätte, wenn entsprechend minderwertige Daten zum Training verwendet wurden. Beispielsweise habe KI beim Online-Händler Amazon Männer bei Bewerbungen bevorzugt, weil diese bereits in der Vergangenheit – und in den Trainingsdaten – begünstigt wurden. Gleiches gilt für die KI-gestützte vorausschauende Polizeiarbeit, die oftmals mehr Verbrechen in Stadtteilen voraussagt, in denen Schwarze und andere ethnische Minderheiten leben, weil die historischen Trainingsdaten von Vorurteilen geprägt sind.

KI entscheidet über Schicksale

Das DHS und seine Unterbehörden setzen KI dem Brief zufolge an unterschiedlichen Stellen zur automatischen Entscheidungsfindung ein. Die Einwanderungsbehörde (USCIS) beispielsweise nutzt die Technologien dazu, um Entscheidungen über Einwanderungsleistungen und -erleichterungen zu treffen. Das Programm “Predicted to Naturalize” helfe der Behörde beispielsweise bei Entscheidungen über den Anspruch auf Staatsbürgerschaft. Ein anderes Programm überprüfe Asylanträge auf möglichen Betrug.

Die Polizei- und Zollbehörde (ICE) setze KI-Technologien zudem ein, um über Inhaftierungen, Abschiebungen oder Überwachung von Eingewanderten entscheiden zu können. Bei der Zoll- und Grenzschutzbehörde (CBP) sollen die Technologien zur biometrischen Überwachung zum Einsatz kommen. Die Behörde habe an der Grenze ein Netzwerk aus KI-gestützten Überwachungstürmen, Sensoren und weiteren Systemen zur Verfolgung von Einwanderern auf- und ausgebaut.

Angesichts der Gefahren, die von den intransparenten KI-Systemen ausgingen, fordern die Unterzeichner das US-Heimatschutzministerium dazu auf, die Programme so anzupassen, dass sie den bundesrechtlichen Vorschriften entsprechen und beispielsweise keine Diskriminierung fördern. Für dieses Vorhaben setzen die Organisationen dem Ministerium eine Frist bis zum 1. Dezember. Sollten die eingesetzten KI-Systeme die Anforderungen bis dahin nicht erfüllen, solle deren Einsatz beendet oder ausgesetzt werden, fordern die Organisationen. (hcz)