UN-Studie kritisiert Einsatz von Technologien zur Grenzüberwachung
Staaten weltweit setzen an ihren Grenzen vermehrt Technik ein, um irreguläre Übertritte zu erkennen – von automatischer Gesichtserkennung bis zu Roboterhunden. Doch ein Teil dieser Überwachungstechniken sollte bei der Grenzüberwachung verboten werden, heißt es in einer gemeinsamen Studie des UN-Menschenrechtsbüros und der Universität Essex. Vielmehr müssten bei der Kontrolle von Grenzen die Menschenrechte im Vordergrund stehen.
Der in dieser Woche veröffentlichten Studie zufolge werden internationale Grenzen zunehmend gesichert – teils sogar militarisiert. Mit dem Ziel, Migration zu verhindern würden physische Barrieren errichtet. Die Rechte von Migranten seien an diesen Grenzen häufig bedroht, unter anderem weil gegen das Recht auf Asyl oder das Verbot der Zurückweisung verstoßen werde. Viele Staaten setzten darüber hinaus zunehmend auch Technologie ein: So sollen beispielsweise Drohnen und Infrarotkameras Bewegungen in der Nähe von Grenzen erkennen. Die Autorinnen Lorna McGregor und Petra Molnar warnen, bestehende Probleme in Hinblick auf die Menschenrechte könnten dadurch noch verstärkt werden.
Gesichtserkennung und Lügendetektoren
Laut der Studie kommen an internationalen Grenzen bereits verschiedene Technologien zum Einsatz, darunter Systeme zur biometrischen Identifizierung von Personen. An internationalen Grenzen werden demnach häufig routinemäßig Fingerabdrücke und Iris-Scans von Geflüchteten erfasst. Auch Gesichtserkennungssysteme werden verwendet.
Auch würde bereits der Einsatz von sogenannten Lügendetektoren getestet. Diese sollten die Funktion von “virtuellen Grenzbeamten” übernehmen, um Menschen an Flughäfen und Grenzübergängen zu befragen. Wenn die Systeme eine vermeintliche Täuschung erkennen, alarmieren sie einen Mitarbeiter der Grenzbehörde. Die Autorinnen der Studie warnen, sogenannte Lügendetektoren bedrohten unter anderem das Recht auf Nichtdiskriminierung und könnten zur ungerechtfertigten Ablehnung eines Asylantrags oder Visums führen.
Auch im Rahmen des von der Europäischen Union finanzierten Pilotprojektes “iBorder Control” sei versucht worden, ein solches System zu entwickeln, das außerdem automatisch Dokumente überprüfen und Gesichtsbilder sowie Iris-Scans sammeln sollte. Medienberichten zufolge wurden ähnliche Systeme auch in den USA und Kanada getestet.
Andere Überwachungstechniken bedrohen aus Sicht der Autorinnen ebenfalls die Menschenrechte von Migrantinnen und Migranten: So würden einige Staaten mithilfe von Drohnen die Meere überwachen, um zu verhindern, dass Migranten in ein sicheres Land gelangen. Stattdessen würden die gesammelten Informationen an Küstenwachen in Transitländern weitergeleitet, die entdeckte Boote dann an Land holten. Dort drohten Migranten jedoch teils willkürliche Inhaftierungen und Folter.
Auch ursprünglich für die Strafverfolgung oder das Militär entwickelte Technologien kämen inzwischen zum Einsatz, wie sogenannte Roboterhunde. Diese werden beispielsweise an der US-Grenze zu Mexiko erprobt.
Studien hätten außerdem gezeigt, dass geflüchtete Menschen der Einsatz solcher Überwachungstechniken bewusst ist. Weil sie befürchten, entdeckt und bestraft zu werden, könnten sie sich daher für “weniger direkte und gefährlichere Routen” entscheiden, so die Studie.
Zudem beschränke sich der Einsatz von Überwachungstechniken nicht mehr auf physische Staatsgrenzen. Stattdessen werde beispielsweise versucht, mithilfe von Software Migrationstrends vorherzusagen. Die Systeme würden dafür auch Daten in den sozialen Medien sammeln. Auch Daten, die Grenzbehörden aus den Mobiltelefonen von Geflüchteten ausgelesen haben, würden ausgewertet.
Teils würden auch gesammelte Daten zu Personen miteinander verknüpft. So könnten auch Strafverfolgungsbehörden auf Daten zugreifen, die an den Grenzen gesammelt wurden. In den USA arbeite das Ministerium für Innere Sicherheit an einer solchen Datenbank, in der Personenprofile gespeichert und mit biometrischen Daten verknüpft werden sollen. Über die Datenbank sollen Daten geteilt werden, die beispielsweise von den Grenzbehörden aber auch der Bundespolizei FBI gesammelt wurden. Es bestehe auch die Gefahr, dass in Flüchtlingscamps erfasste Daten von Staaten zur Migrationskontrolle verwendet würden.
Menschenrechte statt Absicherung
Die Autorinnen schreiben, selbst wenn regional der Einsatz digitaler Technologien an Grenzen nicht in spezifischen Gesetzen geregelt ist, müssten sich Staaten an internationale Menschenrechtsgesetze halten. Wenn solche Technologien aber mit dem Ziel eingesetzt würden, Migration zu vermeiden, seien Menschenrechtsverletzungen wahrscheinlich. Die Studie fordert in diesem Zusammenhang ein Umdenken bei der Kontrolle und Überwachung von Grenzen: Um die Rechte von Migranten zu gewährleisten, müssten Menschenrechtsvorschriften und -normen im Mittelpunkt stehen und nicht die Absicherung der Grenze.
Weil aber selbst dann die Menschenrechte verletzt werden können, fordert die Studie auch ein Verbot für bestimmte Technologien im Rahmen von Grenzkontrollen. Bei Systemen zur Emotionserkennung bestehe beispielsweise ein hohes Risiko, dass diese zu Diskriminierung führen – weshalb ihr Einsatz verboten werden sollte. Die UN-Menschenrechtsexperten erklären außerdem, biometrische Identifikationssysteme wie Gesichtserkennung könnten Menschenrechtsverletzungen begünstigen. Vor dem Hintergrund, dass immer mehr Gesetzgeber den Einsatz solcher Techniken im öffentlichen Raum verbieten wollen, sollten Staaten auch an Grenzen auf ihren Einsatz verzichten.
Wenn Staaten sich für den Einsatz von Technologien zur Grenzüberwachung entscheiden, müssten sie im Vorfeld die Notwendigkeit und Verhältnismäßigkeit prüfen. Auch ihre Auswirkungen auf die Menschenrechte müssten untersucht werden. Der Einsatz müsse außerdem von einer unabhängigen Stelle beaufsichtigt werden und es müsse die Möglichkeit geben, gegen den Einsatz Beschwerde einzulegen. Die Autorinnen fordern außerdem eine größere Transparenz von Staaten. Denn bisher seien Informationen zu den bereits eingesetzten Systemen nur teilweise öffentlich zugänglich. (js)