Luke Dormehl
14.05.2014 | 12:37 3

„Sei kein Fremder“

Gesichtserkennung Unternehmen wie Tesco, Google und Facebook setzen bereits Tools zur Gesichtserkennung ein. Die Risiken für die Privatsphäre sind schwer abzuschätzen

„Sei kein Fremder“

Bild: AFP / Getty

Diesen Sommer wird Facebook auf einer Konferenz ein Tool vorstellen, das fast so gut wie ein Mensch beurteilen kann, ob zwei Fotos die selbe Person zeigen – unabhängig von Veränderungen des Lichts oder des Kamerawinkels. Ein Mensch erreicht im Durschschnitt eine Trefferquote von 97,53 Prozent. Die neue Facebook-Technologie schafft beeindruckende 97,25 Prozent. „Wir kommen sehr nahe an die Leistung eines Menschen heran“, sagt Yaniv Taigman von Facebook.

Entwicklungen wie diese „DeepFace“-Technologie (ja, sie heißt wirklich so) werfen schwerwiegende Fragen bezüglich der Macht heutiger Gesichtserkennungstools und der Bedeutung auf, die sie in Zukunft erhalten werden. 

Facebook ist nicht das einzige Technologie-Unternehmen, das sich für Gesichtserkennung interessiert. Auch Apple hat im März ein Patent veröffentlicht, das zeigt, wie das Unternehmen Cupertino die Möglichkeit untersucht hat, Gesichtserkennung zur Entsperrung von Geräten zu verwenden – es ist also gut möglich, dass Sie sich eines Tages mit einem Selfie bei Ihrem Smartphone identifizieren können.

Auch Google hat schon massiv auf dem Gebiet investiert. Dabei dreht sich dessen Interesse schwerpunktmäßig um die Möglichkeiten der Bildersuche. Der Suchmaschinen-Gigant hofft, intelligentere Möglichkeiten zu finden, die Milliarden an online zugänglichen Bildern durchzusehen. Da Google wie Facebook seine User verstehen möchte, ergibt es Sinn, anhand öffentlicher Bilder seine Lebensgeschichte zu dokumentieren, auch wenn der User das vielleicht gar nicht möchte. 

Am weitesten geht Google in Sachen Gesichtserkennung mit seinen Google-Glass-Headsets. Mithilfe einer eingebauten Kamera schienen die Brillen wie maßgeschneidert dafür, die Menschen um einen herum zu identifizieren. Genau das dachten sich auch andere Entwickler, denn sobald die Technologie angekündigt worden war, tauchten Apps wie NameTag auf. Die Idee dahinter war einfach: Immer, wenn man eine neue Unterhaltung mit einem Fremden beginnt, macht das Headset ein Foto von ihm und verwendet es dann dazu, das Online-Profil der Person zu überprüfen. Ob er Ihr Interesse für Werner-Herzog-Filme teilt oder ein verurteilter Sexualstraftäter ist –– nichts wird mehr Ihrem Blick entgehen. „With NameTag your photo shares you“, heißt es dazu auf der Seite der App. „Don't be a stranger.“

Obwohl Tools wie NameTag scheinbar das Potenzial bergen, Google Glass zum Durchbruch zu verhelfen, entschloss Google sich schließlich, keine Gesichtserkennungsapps zu vertreiben, auch wenn einige der Ansicht sind, dass dieses Verbot lediglich von symbolischem Wert sei und mit der Zeit bestimmt aufgeweicht werde. Soll heißen: Es könnte sein, dass Google seine User zwar davon abhält, Gesichtserkennungsapps auf Glass direkt zu installieren, aber sehr wohl erlaubt bzw. ermöglicht, Bilder auf Seiten, wie etwa Facebook, hochzuladen, die ihrerseits Gesichtserkennungstools haben. Darüber hinaus gibt es nichts, was einen konkurrierenden Headset-Anbieter davon abhalten könnte, Gesichtserkennungsapps zuzulassen – und könnte Google dann widerstehen, nicht auch selbst nachzuziehen?

Nicht jeder ist damit glücklich. US-Senator Al Franken hat sich gegen Apps ausgesprochen, die Gesichtserkennungstools dazu benutzen, um Fremde zu identifizieren. In einem offenen Brief an die Erfinder von NameTag schreibt er: „Anders als andere Mittel zur biometrischen Identifizierung (Abtasten der Iris, Fingerabdruck) ist die Gesichtserkennung für die Anwendung aus der Entfernung gemacht. Die Person, die identifiziert wird, muss gar nichts davon wissen oder ihre Einwilligung erteilen. Niemand kann sich davor schützen, von Kameras identifiziert zu werden, die überall sein könnten – an Laternenpfählen, auf einem unbemannten Fluggerät oder jetzt auch integriert in die Brille eines Fremden.“ 

Für Gegner der Gesichtserkennung ist dies der entscheidende Punkt. In Steven Spielbergs Science-Fiction-Film Minority Report von 2002 wird Werbung mithilfe von Gesichtserkennung personalisiert. Im Jahr 2014 erfüllen einige Unternehmen diese Idee bereits mit (digitalem) Leben. Ende vergangenen Jahres kündigte Tesco Pläne an, an den Kassen seiner Filialen im ganzen Land Kameras zu installieren, die mit Algorithmen zur Gesichtserkennung ausgestattet sind, Alter und Geschlecht der einzelnen Kunden ermitteln, um so zielgerichteter werben zu können.

„In der Werbung ist es Zeit für eine entscheidende Veränderung“, sagt der Sohn von Lord Sugar, Simon, Chief Executive von Amscreen, das die OptimEyes-Technologie entwickelt hat, die hinter Tescos Gesichtserkennungsbildschirmen steht. „Die Marken verdienen es, nicht nur zu wissen, wie viele Augenpaare ihre Anzeigen sehen, sondern auch, wer sie sieht. Mit unserer Gesichtserkennungstechnologie wollen wir die Kampagnen unserer Werbekunden optimieren und ihnen Einsichten bieten, die ihnen bisher nur das Internet bieten konnte.“

Mal abgesehen von der Frage, ob Marken es „verdienen“, alles Mögliche über ihre Kunden zu wissen – Unternehmen wie OptimEyes und Emotient haben bei weitem noch nicht die gruseligsten Anwendungen für Gesichterkennungssoftware gefunden. In den USA hat das Startup SceneTap Kameras in über 400 Bars angebracht, die Kneipengängern mithilfe von Gesichtserkennung bei der Entscheidung unter die Arme greifen sollen, welche Locations sie an diesem Abend besuchen wollen. SceneTap bietet Echtzeit-Informationen über alles vom Geschlechterverhältnis bis hin zum Durchschnittsalter der Stammkunden. Ein Patent, das von dem Unternehmen angemeldet wurde, sieht sogar vor, identifizierte Personen mit ihren Profilen in sozialen Netzwerken zu verbinden, um so ihren „Beziehungsstatus, ihre Intelligenz, ihren Bildungsgrad und ihr Einkommen“ in Erfahrung zu bringen.

Auch wenn die Verwendung von Gesichtserkennungstools im Konsum-Sektor noch relativ neu ist, werden sich hier in den nächsten Jahren spürbare Veränderung abzeichnen. „Heute liegen die Investitionskosten nicht mehr so hoch“, sagt Kelly Gates von der Universität San Diego und Autorin des Buches Our Biometric Future: Facial Recognition Technology and the Culture of Surveillance. „Dies führt dazu, dass es im kommerziellen Bereich jetzt viel mehr Experimente gibt.“

Selbstverständlich gibt es auch Probleme, und die meisten haben mit dem Bedenken bzgl. des Schutzes der Privatsphäre zu tun. Auch wenn die Persönlichkeitsrechte überall ein Thema sind, wo Daten gesammelt werden, so ist zumindest im Internet der Großteil der Informationen, die von Unternehmen abgefischt werden, anonymisiert. Gesichtserkennung hingegen ist genau das Gegenteil. Und da sie im öffentlichen Raum stattfindet, muss die Person, die erfasst und überwacht wird, nicht notwendigerweise ihr Einverständnis erklären.

Dies wiederum führt uns zum Thema Sicherheit, in der viele Unternehmen und Organisationen den ultimativen Anwendungsbereich für die Gesichtserkennung sehen. Die meiste Forschung auf diesem Gebiet wurde daher auch von staatlicher Seite finanziert, mit dem Interesse, die Überwachung der Bevölkerung zu rationalisieren. Seit den Anschlägen vom elften September 2001 und siebten Juli 2005 in London ist die Betonung dieses Aspektes immer stärker geworden.

Nach den Anschlägen vom elften September tauchte eine Videoaufnahme auf, auf der zu sehen ist, wie Mohamed Atta einen Metall-Detektor in Portland, Maine passiert. Diese Bilder zogen ihre Dramatik nicht wie die von den einstürzenden Twin Towers aus dem, was sie zeigten, sondern was sie unterstellten: dass, wenn nur die richtige Technologie zur Verfügung gestanden hätte, die Schrecken jenes Tages hätten vermieden werden können.

Auch wenn die Vorstellung, Algorithmen zur Datenanalyse hätten 9/11 oder 7/7 verhindern können, schon vielfach kritisiert wurde, spielt die Gesichtserkennung im Überwachungsbereich mit Sicherheit eine immer größere Rolle. So erhielt beispielsweise der 41-jährige John Gass am fünften April 2011 einen Brief von der Zulassungsstelle Massachusetts Registry of Motor Vehicles, in dem er aufgefordert wurde, unverzüglich das Fahren einzustellen. Gass war baff. Er hatte sich seit Jahren nichts zu Schulden kommen lassen. Nach einer Reihe von Telefonaten und einem persönlichen Gespräch stellte sich heraus, dass ein Algorithmus zur Gesichtserkennung, der darauf ausgerichtet ist, Datenbanken mit Millionen von Führerscheinen auf mögliche Fälschungen hin zu durchsuchen, zu dem Ergebnis gekommen war, dass er genügend Ähnlichkeit mit einem anderen Fahrer aufwies, um hier einen Betrug zu vermuten. Die Behörde hatte kein Problem damit, ihn fälschlich beschuldigt zu haben, schließlich liege die Beweislast im Fall eines Fehlers beim Beschuldigten. Die Vorteile würden die Unannehmlichkeiten für die wenigen, die zu Unrecht ins Visier geraten, weit übersteigen.

„Der Staat träumt davon, in der Lage zu sein, überall im öffentlichen Raum Kameras aufzustellen und permanent die Gesichter der Passanten zu durchkämmen“, sagt Xiaoou Tang, Professor ab der Fakultät für Information Engineering an der Chinese University von Hong Kong und einer der weltweit führenden Experten in Sachen Gesichtserkennung. „Wenn das erst einmal passiert, können die Bilder durch Datenbanken gejagt werden, um Verdächtige oder potenzielle Terroristen zu suchen und sie (womöglich vorsorglich) zu verhaften.“

„Was mir Sorgen bereitet ist der Glaube, dass Maschinen nicht voreingenommen sind“, sagt Gates dazu "Natürlich sind sie das strenggenommen auch nicht. Das heißt aber nicht, dass es nicht zu Verzerrungen kommen kann. So könnte es zum Beispiel sein, dass ein Gesichtserkennungstool bei Männern eine höhere Wiedererkennungsrate aufweist als bei Frauen, bei Menschen mit dunklerer Haut eine höhere als bei Menschen mit hellerer. (Diese Fälle sind schon vorgekommen.)

Ein Gesichtserkennungssystem identifiziert einen Mann mit dunklerer Haut vielleicht nicht aus rassistischen Gründen, aber die Tatsache, dass es wahrscheinlicher sein könnte als bei einer Frau mit hellerer Haut, bedeutet, dass am Ende ein verzerrtes Ergebnis herauskommt.

Und während die Algorithmen neutral sein mögen, trifft auf die Datenbanken alles andere zu, nur nicht das.

„Diese Datenbanken definieren unsere soziale Mobilität und unsere Fähigkeit, uns in der Welt zu bewegen“, sagt Gates. „Individuelle Identifizierung ist immer mit sozialer Klassifizierung verbunden. Sie dient immer einem bestimmten Zweck, und der besteht für gewöhnlich in der Bestimmung der Zugangsberechtigung oder der Privilegen der betreffenden Person. Die ethischen Fragen, die sich bei der Gesichtserkennung ergeben, drehen sich um diese sozialen Hierarchien und und wie sie etabliert werden.“

Nicht, dass Gesichtserkennung nicht ihre guten Seiten hätte. Viele der Verbesserungen auf diesem Gebiet werden uns in den kommenden Jahren zugute kommen. Doch die Vorstellung, man könne die gigantische, anonyme Welt, in der wir leben, in einen Ort verwandeln, den wir so gut kennen wie eine Kleinstadt, ist naiv. „Letztlich müssen wir uns fragen, ob wir wirklich in einer Welt der umfassenden automatischen Identifikation leben wollen“, sagt Gates.

Luke Dormehl ist Autor des Buches The Formula: How Algorithms Solve All Our Problems (And Create More), das bei WH Allen £20 herausgekommen ist.  

Übersetzung: Holger Hutt

Kommentare (3)