Test: Amazon Gesichtserkennung „identifiziert“ US-Politiker als Kriminelle

Amazons Gesichtserkennungs-Software „Rekognition” wird immer wieder scharf kritisiert. Wie fehleranfällig das System tatsächlich ist, hat jetzt der Test einer US-Bürgerrechtsorganisation herausgefunden. Bei diesem wurden doch eben mal aus Politikern Verbrecher. Blöd gelaufen für Amazon …

Heute noch angesehener Politiker, morgen Krimineller. Das ist nicht der Plot zu einem neuen Hollywood-Blockbuster, sondern Gesichtserkennung a la Amazon, die in den USA bei verschiedenen Polizeibehörden im Einsatz ist. Die beiden Demokraten John Lewis aus Georgia und Bobby L. Rush aus Illinois wurden u. a. bei einem Test der A.C.L.U. (American Civil Liberties Union) vom System als Kriminelle „erkannt“, wie die Organisation letzte Woche mitteilte. Bei dem Test wurden Fotos aller bundesstaatlichen Abgeordneten mit einer Datenbank von 25.000 öffentlich verfügbaren Mug-Shots verglichen. 28 Kongressmitglieder wurden dabei fälschlicherweise als inhaftierte Verbrecher identifiziert, gesamt ergab sich eine 5%ige Fehlerquote.

A.C.L.U.: „Mangelhaft, nicht repräsentativ und gefährlich.“

Die A.C.L.U. dazu: „Dieser Test bestätigt, dass Gesichtserkennung mangelhaft, nicht repräsentativ und gefährlich ist.“ Drei der falsch identifizierten Politiker schrieben einen Brief an Amazon-Chef Jeff Bezos, in dem u. a. stand, dass der Test „ernsthafte Fragen aufwirft, ob Amazon diese Technologie an Vollzugsbehörden verkaufen sollte.“ Weitere zwei Kongressabgeordnete reagierten ebenfalls mit einem, separaten, Brief an Bezos.

Amazon sieht das anders: In einem Statement gab der Konzern an, dass seine Kunden die Gesichtserkennungs-Technologie bereits für verschiedenste gute Zwecke eingesetzt haben, darunter auch die Wiedervereinigung von Familien mit ihren vermissten Kindern oder das Verhindern von Menschenhandel. Die A.C.L.U. habe die Technologie anders genutzt, als es Amazon Kunden aus dem Strafvollzug empfiehlt.

Befürworter: Technologie sehr wertvoll für Identifizierung von Kriminellen

Gesichtserkennung wird mehr und mehr zu einem der Top-Themen für Bürgerrechtsgruppen und Privatsphäre-Experten. Dem stehen aber auch zahlreiche Befürworter entgegen, welche die Technologie als sehr hilfreich bei der Identifikation von Verbrechern sehen. Richtigerweise wurden damit tatsächlich schon Kriminelle erfolgreich ausgemacht. Amazon preist Rekognition auf seiner Webseite als Realtime-Gesichtserkennung an, die bis zu 100 Gesichter auf herausfordernd vollen Fotos erkennt. Gegner sehen die Technologie aber als Überwachungssystem, das verhindern kann, dass Menschen unbeobachtet an politischen Protesten teilnehmen oder einfach nur ihrem täglichen Leben nachgehen können. Microsoft sagte beispielsweise diesen Monat, dass die Nutzung der Technologie viel zu riskant für Tech-Firmen sei, wenn es keine staatliche Regulierung gibt. Der Konzern forderte den Kongress zu ebendieser auf.

Immer wieder bestätigte Fehler

Die A.C.L.U. sieht Rekognition ganz klar als nicht zulässig und als Grundlage für einen totalitären Überwachungsstaat an: „Eine Identifizierung – ob sie nun zutreffend ist oder nicht – kann Menschen ihre Freiheit und sogar ihr Leben kosten“, warnte sie in einer öffentlichen Aussendung. Der Test der Organisation zeigte nicht zum ersten Mal Fehler auf: Beim Champions League Final 2017 wurden 2.000 Gäste von der Technologie als kriminell „enttarnt“. Fälschlicherweise. Und bei Tests, welche die Polizei in London durchführte, fiel das System ebenfalls durch: Auf jeden erkannten Straftäter fallen 49 Falschmeldungen …

Quelle: New York Times, futurezone

Zusammenfassung
Beitragstitel
Test: Amazon Gesichtserkennung „identifiziert“ US-Politiker als Kriminelle
Beschreibung
Amazons Gesichtserkennungs-Software „Rekognition” wird immer wieder scharf kritisiert. Wie fehleranfällig das System tatsächlich ist, hat jetzt der Test einer US-Bürgerrechtsorganisation herausgefunden. Bei diesem wurden doch eben mal aus Politikern Verbrecher. Blöd gelaufen für Amazon …
Author
Verfasser
vavt.de
Verfasser Logo

Schreibe einen Kommentar

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.