Der Einsatz automatisierter Gesichtserkennung durch die Polizei im Rahmen des G20-Gipfels hält der Hamburger Datenschutzbeauftragte Prof. Dr. Johannes Caspar für rechtswidrig. Innensenator Andy Grote sieht das anders. Jetzt soll der Streit vor Gericht geklärt werden.
Ist das Verfahren der automatisierten Gesichtserkennung datenschutzwidrig? Diese Diskussion zwischen Innensenator Andy Grote und Hamburgs höchstem Datenschutzbeauftragten Prof. Dr. Johannes Caspar wird jetzt vor Gericht ausgehandelt. Anlässlich des G20-Gipfels hatte die Polizei Hamburg Bild- und Videoaufzeichnungen verschiedener S-Bahnhöfe gesammelt und in die Gesichtserkennungssoftware eingepflegt. Auf diesem Weg lassen sich Personen und damit auch mögliche Straftäter identifizieren.
Mit den Ermittlungserfolgen durch die Software rechtfertigte Grote das Verfahren am gestrigen Donnerstag vor dem Innenausschuss der Bürgerschaft, wie der NDR berichtet. Demnach hätte es 60 Jahre in Anspruch genommen, bis ein Beamter die Arbeit hätte leisten können, die das Programm in kürzester Zeit erledigt. Dabei ginge es ausschließlich um eine rechnerische Formel zur Bestimmung von Ähnlichkeiten.
Caspar hält die G20-Gesichtserkennung indes für rechtswidrig: “Wenn bereits die Häufung von Straftaten ausreicht, um den Ermittlungsbehörden nicht nur den Zugriff auf zahllose Bilddateien, sondern auch die zeitlich und örtlich nahezu unbegrenzte Auswertung biometrischer Identitäten von tausenden Unbeteiligten zu ermöglichen, vermittelt die Herrschaft über Bilder eine neue Intensität staatlicher Überwachungs- und Eingriffsbefugnisse.” Diese seien hoch missbrauchsgefährdet. Es sei nicht tragbar, Strafverfolgungsbehörden allein die Einschätzung zu überlassen, biometrische Massendatenerhebungen zur Täteridentifikation zu ermitteln.
lh