DatenschutzGesellschaftInternet

Clearview AI – Die unheimliche Seite der Gesichtserkennung

Zuletzt aktualisiert am 12. Februar 2020 von Claus Nehring

Einleitung

Die New York Times veröffentlichte am 18. Januar 2020 nach monatelangen Recherchen unter dem Titel The Secretive Company That Might End Privacy as We Know It einen Artikel über die bis dato relativ unbekannte amerikanische Firma „Clearview AI“.

Das Produkt dieser Firma ist ein Algorithmus zur Gesichtserkennung und eine Personen-Datenbank, die weit über alles hinausgehen, was bisher zu dem Thema bekannt war. Und dieses Produkt könnte im Endeffekt durchaus für ein Ende unserer bisherigen Privatsphäre sorgen.

Dieser Artikel beruht hauptsächlich auf dem oben genannten Artikel der New York Times und den von der New York Times veröffentlichten dazugehörigen Dokumenten, einige weitere Informationen entstammen eigenen Recherchen. Der Artikel wird aktualisiert, sobald neue Informationen bekannt werden.

Was bisher bekannt ist

Das amerikanische Unternehmen Clearview AI hat offenbar seit mehreren Jahren eine Datenbank mit Bildern aufgebaut, die aus öffentlich zugänglichen Quellen im Internet stammen. Laut einem von der New York Times veröffentlichten Gutachten, das von Clearview an potentielle Kunden verteilt wurde, stammen die in der Datenbank enthaltenen Bilder aus sozialen Medien, Nachrichtenmedien, öffentlichen Beschäftigungs- und Bildungswebsites und anderen öffentlichen Quellen. Der von Clearview beauftragte Verfasser dieses Gutachtens ist übrigens Paul D. Clement, der unter Präsident George W. Bush immerhin amerikanischer Generalstaatsanwalt war.

In dieser Datenbank sind angeblich mehr als drei Milliarden Bilder von Personen mit den dazugehörigen Links auf die Quelle der Bilder und den Daten der auf den Bildern zu sehenden Personen enthalten. Jedes dieser Bilder wird von Clearview mithilfe von Gesichtserkennungs-Algorithmen indexiert und ein mathematisches Modell des jeweiligen Gesichts umgerechnet.

Da die Nutzungsbedingungen der Quellseiten eine solche Aneignung der Fotos natürlich nicht erlauben, ist diese Datenbank offenbar durch das widerrechtliche Herunterladen der Inhalte, das sogenannte Scraping erstellt worden. Dieses Scraping wird übrigens von allen großen sozialen Netzwerken in den Richtlinien ausdrücklich untersagt, manche Unternehmen wie beispielsweise Twitter untersagen in ihren Richtlinien auch ausdrücklich die Verwendung ihrer Daten für die Gesichtserkennung.

Die Datenbank erlaubt es dem Benutzer nun, ein Bild einer Person hochzuladen, es in Sekundenschnelle mit den drei Milliarden gespeicherten Bildern abzugleichen und ähnliche Bilder zusammen mit den dazugehörigen Links auszugeben, die eine schnelle Identifizierung der Person ermöglichen.

Damit hat Clearview erstmals eine Suchmaschine geschaffen, die öffentlich zugängliche Bilder mithilfe eines Gesichtserkennungs-Algorithmus durchsuchen und die Identität der fotografierten Person zurückgeben kann.

Eine Suchmaschinen-Technologie übrigens, die der damalige Google-Chef Eric Schmidt im Jahre 2011 auf der Google „Big Tent“-Konferenz zum Thema Datenschutz im Internet als zu „gruselig“ für Google bezeichnet hatte.

Wie die Daten genutzt werden

Grundsätzlich lassen sich mithilfe der Clearview-Datenbank und des dazugehörigen Algorithmus beliebige Personen mit hoher Genauigkeit identifizieren, deren Fotos irgendwann einmal in irgendeiner Form in öffentlich über das Internet zugänglichen Quellen gespeichert wurden.

Bislang war eine solche Technologie, mit der sich jeder anhand seines Gesichts identifizieren lässt, aufgrund der enormen Auswirkungen auf die Privatsphäre für alle großen Tech-Unternehmen tabu. Der damalige Google-Chef Eric Schmidt erklärte 2011, es handele sich um eine Technologie, die Google zurückhalte, weil die Auswirkungen „zu gruselig“ sein könnten.

Nun sieht es allerdings so aus, als hätte ein kleines Start-Up (auf nicht-legale Weise) eine Datenbank aufbauen können, die genau diese Technologie zur Verfügung stellt. Und von amerikanischen Behörden durchaus begeistert aufgenommen wurde. Nach den Recherchen der New York Times benutzen bereits über 600 Strafverfolgungs-Behörden in den USA die Technologie von Clearview zur Identifizierung verdächtiger Personen.

In dem von der New York Times veröffentlichten Gutachten von Clearview werden einige (natürlich positive) Beispiele für den Einsatz der Datenbank genannt. Über Fehlerkennungen schweigt sich das Memo aus naheliegenden Gründen natürlich aus.

Offenbar haben Polizeibeamte von Bund und Ländern gegenüber der New York Times angegeben, dass die App von Clearview zur Aufklärung von Fällen von Ladendiebstahl, Identitätsdiebstahl, Kreditkartenbetrug, Mord und sexueller Ausbeutung von Kindern eingesetzt wird.

Was nicht nur bedeutet, dass Strafverfolgungs-Behörden vertrauliche Fotos auf die Server eines Unternehmens hochladen, das keinerlei Kontrolle durch diese Behörden oder durch unabhängige Prüfer unterliegt. Sondern auch, dass die von den ebenfalls nicht überprüfbaren Algorithmen dieses Unternehmens ausgegebenen Ergebnisse zum Zwecke der Strafverfolgung verwendet werden.

Welche Personen oder Unternehmen außer diesen über 600 Strafverfolgungs-Behörden noch Zugang zu der App und der Datenbank von Clearview haben, ist nicht bekannt. Die auf der Website von Clearview veröffentlichten Nutzungsbedingungen legen fest, dass der Zugriff auf die Dienste und deren Nutzung für Angehörige von Strafverfolgungsbehörden oder private Sicherheitsunternehmen sowie für andere Personen mit Genehmigung von Clearview möglich ist.

Was im Prinzip bedeutet, dass der Zugriff auf die Datenbank durch beliebige Personen möglich ist, die von Clearview dazu autorisiert werden und das Clearview die einzige Kontrollinstanz ist.

Die möglichen Folgen

Aus datenschutzrechtlicher Sicht ist bereits die Existenz einer Datenbank und eines Algorithmus mit der potentiellen Fähigkeit zur automatischen Identifizierung von Milliarden Personen problematisch genug. Und für jede Person mit öffentlich verfügbaren Fotos oder Videos, also so ziemlich für jeden, sollte diese Möglichkeit alleine schon alptraumhaft sein.

Aber leider gehen die Möglichkeiten für einen Missbrauch dieser Daten noch weit über die bereits vorhandenen Folgen hinaus.

Privatsphäre

Die New York Times hat nach eigenen Angaben eine Analyse des der Clearview-App zugrundeliegenden Quellcodes vorgenommen und eine Schnittstelle für die Verwendung mit einer Augmented-Reality-Brille (Smartglasses bzw. Datenbrille) gefunden. Mithilfe einer solchen Erweiterung könnten Nutzer möglicherweise jede Person identifizieren, die sie sehen.

Und wenn wir uns Verfahren wie die Psychometrie und Skandale wie den um Cambridge Analytica ansehen, dann ist bei der reinen Identifikation einer Person noch lange nicht Schluss. Große Datenbanken wie die von Facebook, Amazon oder Google wissen nämlich so ziemlich alles über die allermeisten von uns. Und alle diese Informationen über Vorlieben und Kontakte jedes Einzelnen könnten dem Träger einer solchen Datenbrille präsentiert werden, wenn er eine bestimmte Person nur ansieht.

Je nach Inhaltstiefe der zugrundeliegenden Datenbank könnten zusätzliche Informationen über die identifizierte Person angezeigt werden, zu denen neben geografischen auch sehr persönliche Informationen gehören können. Die Daten dafür sind jedenfalls in den Datenbanken der großen Tech-Konzerne längst gespeichert. Und welcher Teil dieser Datenbanken bereits in irgendwelchen anderen Datenbanken wie der von Clearview gespeichert wurde, lässt sich heute bestenfalls vermuten.

Jedenfalls ist mit dem Bekanntwerden der Tätigkeit von Clearview eine der bisher nur befürchteten Folgen der Datensammelwut der großen Konzerne für die Privatsphäre unversehens Realität geworden.

Falsch positive Resultate

Wissenschaftler sind sich darüber einig, dass bei der Gesichtserkennung das Risiko für Fehlidentifizierungen mit der Größe der zugrundeliegenden Datenbank wächst. Gerade eine Datenbank aus Milliarden von zufällig zusammengestellten Fotos müsste für diesen sogenannten „Doppelgänger-Effekt“ sehr anfällig sein. Eine unabhängige Bewertung dieses Risikos findet im Falle von Clearview nicht statt, verlässliche Zahlen über die Fehleranfälligkeit des Algorithmus existieren nicht.

Aber die Resultate des Such-Algorithmus werden trotz fehlender Kontrolle für Zwecke der Täterermittlung von mehr als 600 Strafverfolgungsbehörden eingesetzt. Fehler werden sich dabei kaum vermeiden lassen.

Anfälligkeit für Fälschungen

Jede Datenbank, die sich (ob legal oder nicht) auf Fotos und Videos aus den sozialen Netzwerken stützt, ist zwangsläufig anfällig für gefälschte Informationen.

Denn bei den Betreibern der sozialen Netzwerke achtet niemand darauf, ob die auf ihnen geposteten Fotos und Videos die Realität zeigen. Software-Produkte wie das hunderttausendfach verkaufte Portrait Pro von Anthropics ermöglichen die Veränderungen von Gesichtsmerkmalen, die von Algorithmen zur Gesichtserkennung ausgewertet werden. Und sie werden sehr häufig zur Veränderung von Fotos in den sozialen Netzwerken genutzt.

Ähnliches gilt für die erst kürzlich durch die Schlagzeilen gegangene Verschmelzung (Morphing) zweier Passbilder zu einem einzigen mit dem Ziel der Täuschung von Algorithmen zur Gesichtserkennung.

Alle diese Fotos werden in einer automatisch zusammengestellten Datenbank wie der von Clearview verwendet. Welche Auswirkungen einige Millionen solcher Fotos auf die Erkennungsgenauigkeit der Algorithmen haben können und welches Potential für bewusste Fälschungen darin steckt, ist bis heute kaum absehbar.

Mögliche Manipulationen

Da Clearview weder seinen Such-Algorithmus noch die zugrundeliegende Datenbank von unabhängigen Dritten überprüfen lässt, ist auch eine Manipulation der Daten und der Suchergebnisse nicht auszuschließen.

Sowohl die gewollte Nicht-Identifikation wie auch die bewusste Fehlidentifikation eines bestimmten Gesichts sind vorstellbar. Bei einem System, das bereits heute von Strafverfolgungs-Behörden für ermittlungstechnische Zwecke eingesetzt wird, könnte das durchaus ein überaus ernstzunehmendes Problem darstellen.

Die Verfasserin des Artikels in der New York Times hat einige ihrer Fotos durch Polizeibeamte testweise durch das System von Clearview laufen lassen. Sie berichtet, dass das zu Beginn der Recherchen noch einwandfrei erkannte Foto nach Bekanntwerden der Recherchen für einen gewissen Zeitraum vom System nicht mehr identifiziert wurde. In einem Interview bezeichnete der Gründer von Clearview das als „Bug“.

Das Clearview-System und die DSGVO

Die von Clearview benutzte Technologie ist im Prinzip nicht besonders neu. Prinzipiell machen Algorithmen zur Bildsuche wie die von Google nichts Anderes. Nur das Clearview eben eine Gesichts- anstelle einer Text-Erkennung nutzt. Und das Clearview mit dieser Zusammenstellung bekannter Technologien ein bisheriges Tabu gebrochen hat.

Aber wäre ein solches System in Europa eigentlich rechtswidrig? Grundsätzlich wohl eher nicht. Sicherlich ist das Herunterladen der Bilder von sozialen Netzwerken wie Facebook ein Verstoß gegen die Nutzungsbedingungen dieser Netzwerke. Aber eben auch nur das, ein Gesetzesverstoß ist es deswegen nicht automatisch. Letztlich sammelt Clearview nur öffentlich verfügbare Bilder und Informationen und stellt diese Daten dann aufgrund einer Suchanfrage zur Verfügung. In rechtlicher Hinsicht ist das dem Vorgehen anderer Suchmaschinen sehr ähnlich..

Die Nutzung der bekannten Suchmaschinen wie Google ist europäischen Strafverfolgungs-Behörden erlaubt. Und die in der Datenschutz-Grundverordnung in Artikel 23, Absatz 1 vorgesehenen Ausnahmeregelungen würden wohl auch europäischen Behörden die nötigen Spielräume zur Nutzung von Werkzeugen wie Clearview lassen.

Die DSGVO alleine stellt also kein ausreichendes Werkzeug dar, um die Nutzung solcher Technologien zu verhindern. Um Gefahren für die Grundrechte des Einzelnen auszuschließen und derartige Szenarien zu verhindern, sind weitergehende gesetzliche Regelungen notwendig.

Gerade Planungen wie die vom deutschen Innenminister Horst Seehofer gewünschte Einführung der Gesichtserkennung an Bahnhöfen und Flughäfen sollten zumindest solange gestoppt werden, bis die Fragen nach den möglichen Folgen abschließend geklärt werden können. Ansonsten ist der Einsatz von Werkzeugen wie Clearview auch in Europa nicht auszuschließen.

Städte wie San Francisco in den USA sind da bereits etwas weiter und haben die Nutzung der Gesichtserkennungs-Technologie im öffentlichen Bereich bereits komplett verboten. Auch das wird die Weiterentwicklung der Technik zwar nicht verhindern. Aber es schafft zumindest die Zeit, um die möglichen Folgen dieser Technik besser zu verstehen. Und um einen gesetzlichen Rahmen zu schaffen, der die Nutzung der (unbestreitbar vorhandenen) Vorteile der Technologie ermöglicht und gleichzeitig die berechtigten Sorgen der Bürger vor einer totalen Überwachung berücksichtigt.

Reaktionen

Zuletzt aktualisiert am 12. Februar 2020

In diesem Abschnitt dokumentiere ich Nachrichten, die zeitlich mit dem Bekanntwerden des Unternehmens Clearview durch den oben genannten Artikel in der New York Times fallen und sich mit der Gesichtserkennungs-Technologie befassen.

Es handelt sich daher nicht notwendigerweise um Reaktionen auf die Berichterstattung um das Unternehmen Clearview, es kann sich ebenfalls um ein zufälliges Zusammenfallen handeln. So ist beispielsweise das Thema „Künstliche Intelligenz“ schon in den politischen Leitlinien von Ursula von der Leyen bei ihrer Kandidatin für das Amt der Präsidentin der Europäischen Kommission vom Juli 2019 enthalten.

Europäische Kommission

Zeitlich passend zum Skandal um Clearview berichtet EURACTIV von einem geleakten Entwurf eines Weißbuchs der Europäischen Kommission über künstliche Intelligenz, in dem Maßnahmen zur Verhängung eines vorübergehenden Verbots von Gesichtserkennungs-Technologien diskutiert werden.

In dem Papier heißt es laut EURACTIV dazu, dass „der Einsatz von Gesichtserkennungs-Technologie durch private oder öffentliche Akteure im öffentlichen Raum für einen bestimmten Zeitraum (zum Beispiel drei bis fünf Jahre) verboten wäre, in dem eine solide Methodik zur Bewertung der Auswirkungen dieser Technologie und mögliche Risikomanagementmaßnahmen ermittelt und entwickelt werden könnten“.

Google

Der CEO von Google und Alphabet, Sundar Pichai, hat am 20. Januar 2020 auf der Konferenz “Partnering with Europe on responsible AI” der Denkfabrik Bruegel eine seiner seltenen öffentlichen Reden zum Thema „Künstliche Intelligenz“ gehalten.

Neben den bereits bekannten Informationen über die Wichtigkeit der künstlichen Intelligenz als Wachstumsmarkt der Zukunft für Google redete der Google-Chef aber auch über Gesichtserkennungs-Technologien. Hier hat Google nach seinen Worten offene Technologien entwickelt, die bei der Erkennung gefälschter Fotos und Videos (sog. Deep-Fakes) helfen sollen. Er bekräftigte aber auch ein weiteres Mal, dass Google sich gegen das Anbieten allgemeiner Programmierschnittstellen für Gesichtserkennungs-Anwendungen entschieden habe.

Und der Chef von Google unterstütze in seine Rede den Vorschlag der EU für ein vorübergehendes Verbot der Gesichtserkennungs-Technologie. Wenig überraschend war der ebenfalls anwesende Präsident von Microsoft, Brad Smith, dessen Unternehmen bereits Gesichtserkennungs-Technologien anbietet, anderer Meinung.

„Ich halte es für wichtig, dass Regierungen und Verordnungen dies eher früher als später angehen und einen Rahmen dafür schaffen“, sagte Sundar Pichai auf der Konferenz, während Smith eher die Vorteile der Gesichtserkennungs-Technologie in einigen Fällen an, beispielsweise bei der Suche nach vermissten Kindern, in den Vordergrund stellte.

Die Rede des Google-Chefs wurde vielfach auch als Botschaft an die Vizepräsidentin der EU-Kommission, Margrethe Vestager, gewertet, die neben dem Wettbewerb auch für die Überwachung der digitalen Richtlinien der Kommission zuständig ist und die der Google-Chef später am selben Tag zu einem Gespräch traf.

Der Bundesbeauftragte für Datenschutz

Wie die Deutsche Presse-Agentur am 22. Januar 2020 berichtet, hat auch der Bundesbeauftragte für Datenschutz, Ulrich Kelber, vor dem Einsatz von Technologien zur Gesichtserkennung im öffentlichen Raum gewarnt. Grundsätzlich stelle die biometrische Gesichtserkennung „einen potenziell sehr weitgehenden Grundrechtseingriff dar, der auf jeden Fall durch Vorschriften legitimiert sein müsste“.

Eine solche Legitimation sehe er derzeit nicht. „Ich würde es begrüßen, wenn in Europa die Gesichtserkennung im öffentlichen Raum untersagt würde.“

Bundes-Innenministerium

Die Deutsche Presse-Agentur berichtet am 24. Januar 2020, dass der Passus zur flächendeckenden Gesichtserkennung im neuesten Entwurf für das Bundespolizeigesetz nicht mehr enthalten ist.

Offenbar will Bundesinnenminister Horst Seehofer die Gesichtserkennungs-Technologie nun doch nicht mehr an sicherheitsrelevanten Orten wie Bahnhöfen oder Flughäfen einsetzen

Soziale Netzwerke

Die New York Times berichtet in einem Artikel vom 22. Januar 2020, dass Twitter das Unternehmen Clearview AI mithilfe einer Unterlassungserklärung dazu aufgefordert, keine Fotos und Daten mehr von den Twitter-Seiten zu kopieren und dei bereits kopierten Datenbestände zu löschen. Twitter beschuldigt Clearview, gegen die Richtlinien des Netzwerks verstoßen zu haben.

Nach Twitter haben auch andere soziale Netzwerke wie YouTube, LinkedIn und Facebook die weitere Nutzung der heruntergeladenen Bilder und Videos untersagt und entsprechende Abmahnungen eingereicht.

Es ist allerdings unklar, inwieweit Twitter und andere soziale Netzwerke ein Unternehmen wie Clearview dazu zwingen können, Informationen aus seinen Datenbanken zu entfernen. Denn im September 2019 entschied ein Bundesberufungsgericht in Kalifornien in einem ähnlich gelagerten Fall gegen LinkedIn und stellte einen Präzedenzfall auf, demzufolge das automatisierte Scraping öffentlich zugänglicher Daten wahrscheinlich keinen Verstoß gegen den amerikanischen Computer Fraud and Abuse Act (CFAA) darstellt.

Fazit

Die Gesellschaft hat sich lange Zeit darauf verlassen, dass sich die Industrie selbst kontrollieren und eine solche Technologie nicht zulassen würde. Aber auf die gigantischen Datenbanken der Tech-Konzerne kann öffentlich zugegriffen werden und sie können deswegen nicht zuverlässig gegen illegale Zugriffe abgesichert werden. Und ein solcher Zugriff wird wirtschaftlich immer interessant sein, weil es im Markt für Daten immer Interessengruppen geben wird, die für diese Daten viel Geld zu zahlen bereit sind.

Letztendlich wird der Gesetzgeber bestimmen müssen, was legal und was verboten ist. Auf lange Sicht könnte das dazu führen, dass die Gesichtserkennungs-Technologie selbst verboten werden muss, weil die damit verbundenen Missbrauchs-Gefahren einfach zu groß sind. Aber eine einmal bekannte Technologie lässt sich nicht verbieten oder kontrollieren. Solange die technischen Möglichkeiten bestehen, werden sie auch immer von irgendjemand genutzt werden.

Gerade deswegen ist eine möglichst breite Diskussion über die möglichen Folgen solcher Algorithmen heute wichtiger denn je. Wir werden die Büchse der Pandora zwar nicht wieder schließen können. Aber wir können zumindest die Folgen dieser Technologien begrenzen und dafür sorgen, dass es auch morgen noch so etwas wie öffentliche Anonymität gibt.

Denn die Politik scheint momentan eher verstärkt auf die Gesichtserkennung zu setzen. In China ist Gesichtserkennung bereits Realität, in Russland ist sie für dieses Jahr geplant und der deutsche Innenminister Horst Seehofer wünscht sie sich an 135 deutschen Bahnhöfen und 14 Verkehrsflughäfen. In die entgegengesetzte Richtung gehen Städte wie San Francisco, die die automatische Gesichtserkennung bereits generell verboten haben.

Die EU-Kommission diskutiert zwar ebenfalls ein eventuelles Verbot, tendiert aber offenbar eher zu einer Regulierung auf Basis der Datenschutz-Grundverordnung. Zumindest legt dass ein am 16. Januar 2020 auf politico.eu erschienener Artikel nahe.

Ich werde diesen Artikel aktualisieren, sobald neue Informationen vorliegen. Wenn Sie Anmerkungen oder Fragen zu diesem Thema haben oder auch gänzlich anderer Meinung sind, wäre ich Ihnen für einen Kommentar dankbar.

Ich bedanke mich für Ihr Interesse.

Claus Nehring

Ich bin freiberuflicher Autor, Journalist und Texter (aka "Schreiberling") aus Luxemburg. Als Informatiker und Statistiker habe ich jahrelange Erfahrung in der Visualisierung und Modellierung großer Datenmengen. Ich beschäftige mich seit mehr als 30 Jahren mit Infektionskrankheiten und publiziere Artikel zu diesem Thema, aus verschiedenen anderen Wissenschafts-Bereichen und aus dem Bereich Internet & Gesellschaft,

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert


Durch das Abschicken des Kommentars werden die eingegebenen Daten in der Datenbank dieser Website gespeichert. Ausserdem speichern wir aus Sicherheitsgründen Ihre IP-Adresse für einen Zeitraum von 60 Tagen. Weitere Informationen zur Datenverarbeitung finden Sie in der Datenschutz-Erklärung.

Schaltfläche "Zurück zum Anfang"