Lesen Sie diese NYT-Enthüllung auf einer gruseligen neuen Gesichtserkennungsdatenbank, die von der US-Polizei verwendet wird
Illustration von James Bareham / The Verge
Hunderte von Strafverfolgungsbehörden in den USA haben begonnen, ein neues Gesichtserkennungssystem von Clearview AI zu verwenden, wie eine neue Untersuchung der New York Times ergab. Die Datenbank besteht aus Milliarden von Bildern, die von Millionen von Websites wie Facebook, YouTube und Venmo abgekratzt wurden. Die Times sagt, dass Clearview AIs Arbeit “die Privatsphäre beenden könnte, wie wir sie kennen”, und das Stück ist es wert, in seiner Gesamtheit gelesen zu werden.
Der Einsatz von Gesichtserkennungssystemen durch die Polizei ist bereits ein wachsendes Problem, aber der Umfang der Datenbank von Clearview AI, ganz zu schweigen von den Methoden, mit der sie sie zusammenbaut, ist besonders beunruhigend. Das Clearview-System basiert auf einer Datenbank mit über drei Milliarden Bildern, die aus dem Internet abgekratzt wurden, ein Prozess, der möglicherweise gegen die Nutzungsbedingungen von Websites verstoßen hat. Strafverfolgungsbehörden können Fotos von Personen hochladen, die von Interesse sind, und das System gibt passende Bilder aus dem Internet zurück, zusammen mit Links zu dem Ort, an dem diese Bilder gehostet werden, wie z. B. Social-Media-Profile.
Die NYT sagt, dass das System der Polizei bereits geholfen hat, Verbrechen wie Ladendiebstahl, Diebstahl, Kreditkartenbetrug, Mord und sexuelle Ausbeutung von Kindern zu lösen. In einem Fall konnte die Indiana State Police einen Fall innerhalb von 20 Minuten mithilfe der App lösen.
Der Einsatz von Gesichtserkennungsalgorithmen durch die Polizei birgt Risiken. Falsche Positivmeldungen können die falschen Leute belasten, und Datenschützer fürchten, dass ihre Verwendung zur Schaffung eines polizeilichen Überwachungsstaates beitragen könnte. Polizeibehörden haben Berichten zufolge gedokterte Bilder verwendet, die zu unrechtmäßigen Verhaftungen führen könnten, und eine Bundesstudie hat “empirische Beweise” für Voreingenommenheit in Gesichtserkennungssystemen aufgedeckt.
Die Verwendung des Systems beinhaltet das Hochladen von Fotos auf die Server von Clearview AI, und es ist unklar, wie sicher diese sind. Obwohl Clearview AI sagt, dass seine Mitarbeiter im Kundensupport die hochgeladenen Fotos nicht ansehen werden, schien es sich bewusst zu sein, dass Kashmir Hill (die Times-Journalistin, die das Stück untersucht) die Polizei im Rahmen ihrer Berichterstattung nach ihrem Gesicht suchte:
Während das Unternehmen mir ausweichte, überwachte es mich auch. Auf meine Bitte hin hatten einige Polizisten mein Foto über die Clearview-App ausgeführt. Sie erhielten bald Anrufe von Unternehmensvertretern, die fragten, ob sie mit den Medien sprachen – ein Zeichen dafür, dass Clearview die Fähigkeit und in diesem Fall den Appetit hat, zu überwachen, wen die Strafverfolgungsbehörden suchen.
Die Times berichtet, dass das System mit Polizeibehörden viral gegangen zu sein scheint, mit über 600 bereits angemeldet. Obwohl es keine unabhängige Überprüfung seiner Genauigkeit gab, sagt Hill, dass das System in der Lage war, Fotos von ihr zu identifizieren, selbst wenn sie die untere Hälfte ihres Gesichts bedeckte, und dass es ihr gelungen ist, Fotos von ihr zu finden, die sie noch nie zuvor gesehen hatte.
Ein Von der Times zitierter Experte sagte, dass die Höhe des Geldes, das mit diesen Systemen verbunden ist, bedeutet, dass sie verboten werden müssen, bevor der Missbrauch von ihnen weiter verbreitet wird. “Wir haben uns auf die Bemühungen der Industrie verlassen, sich selbst zu polizeien und nicht eine so riskante Technologie zu übernehmen, aber jetzt brechen diese Dämme, weil so viel Geld auf dem Tisch liegt”, sagte ein Professor für Recht und Informatik an der Northeastern University, Woodrow Hartzog, “Ich sehe keine Zukunft, in der wir die Vorteile der Gesichtserkennungstechnologie nutzen, ohne den lähmenden Missbrauch der Überwachung, der damit einhergeht. Der einzige Weg, sie zu stoppen, ist, sie zu verbieten.”
Keywords: afds, afdsafds