Trefferquote hoch, Fehlerquote auch

Die Bundespolizei hat ihren Abschlussbericht zum Test von Videoüberwachung am Bahnhof Südkreuz vorgelegt

  • Von Christian Meyer
  • Lesedauer: 4 Min.

»Die Systeme haben sich in beeindruckender Weise bewährt, sodass eine breite Einführung möglich ist.« Bundesinnenminister Horst Seehofer (CSU) zeigt sich in einer Mitteilung von den Ergebnissen des Tests zur sogenannten intelligenten Kameraüberwachung begeistert. Von August 2017 bis Juli dieses Jahres wurde am Bahnhof Südkreuz Software zur biometrischen Gesichtserkennung mit 300 Freiwilligen getestet. Jetzt liegt der Bericht der Bundespolizei vor, die für das Projekt mit Innenministerium und Deutscher Bahn kooperierte.

In der ersten Phase bis Januar 2018 lieferte die Software eine Trefferquote zwischen 76,7 und 94,4 Prozent. Der Datenbank lagen biometrische Passbilder der freiwilligen Proband*innen zugrunde, die das System im Strom der Passant*innen erkennen sollte. Für die zweite Testphase von Januar bis Juli wurden die Bilder gelöscht und durch Kameraaufnahmen aus der ersten Testphase ersetzt - Bilder mit deutlich schlechterer Qualität. Doch nun wurde die Datenbank nicht nur mit einer, sondern mit zwei bis fünf Bildern je Testperson gefüttert. Daraufhin stieg die Trefferquote auf 80 bis 98,1 Prozent. Das zeigt: Auch Fahndungsfotos, die mittels Videoüberwachung entstanden, müssten für ein derartiges System geeignet sein.

Dennoch ist die mögliche Fehlerquote dem Abschlussbericht zufolge hoch. Bei einem Szenario mit 20 Kameras und 15.000 Passant*innen schwankt die Häufigkeit des ausgelösten Fehlalarms zwischen 0,5 pro Tag und 42 pro Stunde. Deshalb plädiert die Bundespolizei auch dafür, nicht allein auf Gesichtserkennung zu setzen, sondern mehrere Systeme parallel zu nutzen, um zu Fahndungserfolgen zu gelangen. »Hierdurch eröffnet sich der Polizei die Möglichkeit eines flexiblen und zuverlässigen Einsatzes von Gesichtserkennungstechnologie sowohl im polizeilichen Alltag als auch bei besonderen polizeilichen Lagen«, heißt es im Abschlussbericht.

Soweit zum Erfolg des Tests. Die Software kann aber noch mehr: Sie kann alle erkannten Gesichter - nicht nur, jene, die zu den gesuchten Personen gehören - speichern. Zudem kann die Polizei in aufgezeichneten Videos nach Personen suchen. Diese Möglichkeit soll Teil des Folgeprojekts sein, das im Januar am Südkreuz beginnen soll und hauptverantwortlich von der Deutschen Bahn durchgeführt wird. Ob die sogenannte retrograde Suche allerdings tatsächlich eingesetzt wird, ist fraglich: Die Berliner Datenschutzbeauftragte Maja Smoltczyk stellt strenge Anforderungen an das Folgeprojekt.

Biometrische Gesichtserkennung an Bahnhöfen wurde erstmals 2006/2007 getestet. Das Projekt »Foto-Fahndung« des Bundeskriminalamts am Mainzer Hauptbahnhof konnte nicht einmal zwei Drittel der 200 Versuchsteilnehmer*innen identifizieren. Der damalige Chef der Behörde in Wiesbaden, Jörg Ziercke, zog das Fazit, eine solche Erkennungsrate reiche nicht aus, um Festnahmen zu begründen. Gefahren verhindere man so auch nicht.

Ein paar Jahre später - die Technologie ist weiter fortgeschritten - einigte sich die Innenministerkonferenz 2013 auf die Ausweitung der Videoüberwachung an Bahnhöfen. Bundesinnenministerium und Deutsche Bahn beschlossen daraufhin ein gemeinsames »10-Jahre-Programm Video«, im Zuge dessen 2017 am Südkreuz eine neue Videomanagementanlage mit 77 Überwachungskameras und Aufzeichnungstechnik installiert wurde - die technologische Infrastruktur des Pilotprojekts.

Das Projekt selbst sollte ursprünglich 60.000 Euro kosten, am Ende waren es über 260.000 Euro. Das erfährt die Öffentlichkeit allerdings nicht aus dem Abschlussbericht, der auf Kosten mit keinem Wort eingeht, sondern vom Online-Magazin »Vice Motherboard«.

Mit dem jüngst abgeschlossenen Test sollte auch festgestellt werden, welchen Sicherheitsgewinn biometrische Gesichtserkennung leisten kann. Gibt es dazu Erkenntnisse? Es gibt immerhin Behauptungen. Bundespolizeipräsident Dieter Romann teilt mit: »Die Technik erleichtert es, Straftäter ohne zusätzliche Polizeikontrollen zu erkennen und festzunehmen. Dies bedeutet einen erheblichen Sicherheitsgewinn.«

Erwartungsgemäß empfiehlt der Bericht den Einsatz der Technologie - auch wegen der Gefahr des Terrorismus. Diese rechtfertigt offenbar auch fälschliche vorübergehende Festnahmen, die für Betroffene weit schlimmere Konsequenzen haben können als verpasste Züge. Aber einer »potenziellen Identifizierung« eines Terroristen sei »der Vorzug zu geben vor einer im Einzelfall damit einhergehenden fehlerhaften Treffermeldung eines Gesichtserkennungssystems«.

Die Bundesdatenschutzbeauftragte sieht in der getesteten Technologie einen »Grundrechtseingriff mit erheblicher Streubreite« und bemängelt die fehlende Rechtsgrundlage. So sieht es auch ein wissenschaftliches Gutachten des Bundestages. Innenminister Seehofer will daher laut Mitteilung eine »klarstellende Rechtsgrundlage im Bundespolizeigesetz« auf den Weg bringen. Das Recht soll so nachträglich technologischen Möglichkeiten und polizeilicher Praxis angepasst werden. Dieser Trend ist gefährlicher als Fehlerquoten der Software.

Dazu passende Podcast-Folgen:

nd Journalismus von links lebt vom Engagement seiner Leser*innen

Wir haben uns angesichts der Erfahrungen der Corona-Pandemie entschieden, unseren Journalismus auf unserer Webseite dauerhaft frei zugänglich und damit für jede*n Interessierte*n verfügbar zu machen.

Wie bei unseren Print- und epaper-Ausgaben steckt in jedem veröffentlichten Artikel unsere Arbeit als Autor*in, Redakteur*in, Techniker*in oder Verlagsmitarbeiter*in. Sie macht diesen Journalismus erst möglich.

Jetzt mit wenigen Klicks freiwillig unterstützen!

Unterstützen über:
  • PayPal
  • Sofortüberweisung