Gesichtserkennungsprogramme sind keineswegs zuverlässig, aber auch nicht immer problematisch

Die im Dunkeln sieht man doch

Seite 2
Von

Wichtig für die Bewertung der Software sind zwei Kennzahlen: Wie viele Personen werden korrekt erkannt und wie viele fälschlich? Beim kürzlich zu Ende gegangen Testlauf am Berliner Bahnhof Südkreuz lag die Erkennungsrate nach Angaben des Bundesinnenministeriums bei 70 Prozent. Das heißt, von zehn gesuchten Personen, die den Bahnhof passieren, werden sieben erkannt und drei nicht. Drei von zehn potentiellen Terroristen und Bombenlegern, mit denen Politiker gerne den Einsatz solchen Überwachungssysteme rechtfertigen, würden also unbemerkt durchkommen.

Problematisch wird dieses Ergebnis vor allem im Hinblick auf die Anzahl der irrtümlich identifizierten Personen. Beim Berliner Experiment wird sie mit 0,3 Prozent beziffert. Das klingt wenig, ist aber viel. Bei täglich 89 000 Fahrgästen und Besuchern würde das bedeuten, dass es jeden Tag zu mehr als 250 Fehlalarmen käme – einer alle fünf Minuten. Wie die Polizei damit umgehen will, ist völlig schleierhaft.

Probleme mit der korrekten Erkennung gibt es nicht nur am Südkreuz. So hat die US-amerikanische Bürgerrechtsorganisation American Civil Liberties Union (ACLU) »Rekognition«, das Gesichtserkennungssystem von Amazon, mit den Fotos der 535 Abgeordneten des US-Kongresses gefüttert und mit mugshots verglichen – Polizeifotos von 25 000 Menschen, die in den USA festgenommen worden waren. Ergebnis: 28 Abgeordnete wurden vom System für eine der inhaftierten Personen gehalten.

Besonders peinlich war, dass die Software afroamerikanische Abgeordnete fast doppelt so häufig mit Verdächtigen verwechselte wie Abgeordnete mit weißer Haut­farbe. Das Experiment der ACLU wird zwar vielfach kritisiert, weil die Datenbasis – 535 Abgeordnete und 25 000 Polizeifotos – viel zu klein sei. Ganz un­realistisch ist es allerdings nicht, schließlich soll die Polizei auf Verbrecherjagd die Videoschnappschüsse vieler Tausend Menschen mit einer überschaubaren Datenbank von Fotos gesuchter Personen vergleichen.

Nun ließe sich argumentieren, Videoüberwachung und Gesichtserkennung könnten zumindest helfen, Straftaten nachträglich aufzuklären. Allerdings ist das nicht das einzige Ziel solcher Systeme. Zur Gesichtserkennung soll die Verhaltenskontrolle hinzukommen. Daran wird 2009-2014 im EU-Forschungsprojekt Indect gearbeitet. Verhält sich eine Person auffällig? Bewegt sie sich anders als die Mehrzahl der Menschen in der Menge? Liegt, sitzt oder steht sie verdächtig irgendwo herum?

Irgendwann soll die Polizei in der Lage sein, eine Person festzunehmen oder wegzuschicken, bevor es zu einer kriminellen Tat kommt. Das würde grundlegende rechtsstaatliche Prinzipien auf den Kopf stellen. Eine solche Verhaltenskontrolle ist explizit für die zweite Phase des Südkreuz-Experimentes geplant, die im September beginnen soll.

Brad Smith hat also recht: Gesichtserkennung hat ein gefährliches Poten­tial. Allerdings zeigt es sich weniger bei den iPhones oder bei Facebook, wo sie sich sogar als praktisch herausstellen kann, ohne Personen konkret zu gefährden – etwa wenn User unberechtigt Fotos von Dritten ins Netz stellen. Die Gefahren liegen eher in der Nutzung durch Staaten, die ihre Bürger per Überwachung unter Generalverdacht stellen. In Kombination mit den neuen Polizeigesetzen der Bundesländer beispielsweise könnte die automatisierte Gesichtserkennung erst ihr dystopisches Potential entfalten.

Vom deutschen Staat ist derzeit eher nicht zu erwarten, dass er dem Aufruf von Brad Smith folgt und sich selbst strenger reguliert. Die kürzlich wirksam gewordene EU-Datenschutz­grund­verordnung etwa sieht Ausnahmen beim Schutz biometrischer
Daten bei »erheblichem öffentlichen Interesse« ausdrücklich vor.

 

 

In einer früheren Version dieses Artikel hieß es fälschlich, das EU-Forschungsprojekt liefe seit 2005. Geändert am 27. August