Face Recognition

Gesichtserkennung

cc0

 Die österreichische Polizei will mit Gesichtserkennung für Video arbeiten. Diese Art der Ermittlungs- bzw. Analysemethode bedient sich einer Software, die Gesichter, die im öffentlichen Raum in Erscheinung treten und von Kameras erfasst werden, mit Fotos aus diversen Datenbanken abgleicht. Das Prinzip der Software ist es, biometrische Muster zu erkennen. Die Software, die das macht, wird in den meisten Fällen vom Staat angekauft (siehe fragdenstaat.at-Anfrage) und nur in den seltensten Fällen selbst entwickelt. Am Markt gibt es einige Anbieter dafür. In Österreich enthält die Abgleichsdatenbank ein bis fünf Millionen Fotos. Geplant war ein Start im Dezember 2019, aus "technischen Gründen" hat sich der Start allerdings auf Ende 2020 verzögert

Aktueller Stand:

  • Die Polizei verwendet Gesichtserkennung vorerst bei Personen, die im Verdacht stehen, eine Straftat begangen zu haben und dies auf Video erfasst wurde.
  • Der Datenabgleich findet mittels Standbild aus einem Video statt.
  • Die Referenzdatenbank enthält Fotos aus der erkennungsdienstlichen Evidenz.
  • Es gibt momentan keine konkrete Rechtsgrundlage für den Einsatz von Gesichtserkennung (siehe Beantwortung unserer fragdenstaat.at-Anfrage vom Juli 2019, in der auf das gesamte Sicherheitspolizeigesetz Bezug genommen wird.)

Aus unserer Sicht ist der Einsatz von Gesichtserkennungssoftware ein sehr schwerer Eingriff, denn es werden biometrische Daten gesammelt, analysiert und ausgewertet. Wir befürchten außerdem, dass der aktuelle Einsatz der Software nach und nach ausgeweitet werden wird und als Echtzeit-Tool fungieren könnte. 

Unsere Kritik an Gesichtserkennung

  • Die Verwendung von Gesichtserkennung, vor allem von Bildern aus dem öffentlichen Raum, ist gefährlich und führt zu einer Einschränkung der Freiheit. Neben der Videoüberwachung selbst führt der Einsatz solcher Überwachungs- und Ermittlungsmaßnahmen zu einem sogenannten „chilling effect“: Die Menschen verhalten sich anders, wenn sie wissen, dass sie beobachtet werden. Das hat grundlegende soziale Auswirkungen.
  • Wir sind grundsätzlich dagegen, dass bestehende Befugnisse durch neue Software ausgeweitet werden. Das ist immer wieder der Fall, weil es immer mehr Daten gibt und immer bessere Analysemethoden (siehe KI, Algorithmen, etc.), womit den polizeilichen Befugnissen unter Umständen ganz neue Bedeutungen zukommen.
  • Gesichtserkennung hat starke Biases (siehe Hautfarben, Geschlechter) und hohe Fehlerquoten. Die Verwendung und Filterung nach Metadaten, die unweigerlich mit biometrischen Merkmalen verbunden sind, führt zu Racial Profiling.
  • Biometrische Bilder werden immer bedeutender. Die Vernetzung dieser Daten birgt große Gefahren und auch das Risiko zu Identitätsdiebstahl etc. (siehe Beispiel Südkorea, wo vom Staat zentral gespeicherte Identitäten gestohlen wurden)

Mittlerweile wird in einigen Ländern und Städten, in denen Gesichtserkennungssoftware im Einsatz war, diese Maßnahme wieder abgeschafft. Zum einen aufgrund der Schwere des Eingriffs und zum anderen aufgrund der hohen Fehlerquoten - in Großbritannien beträgt diese zum Beispiel 81%. In San Francisco und Oakland wurde dieser Maßnahme mittlerweile auch ein gesetzlicher Riegel vorgeschoben.