Künstlich intelligent und voller Stereotype

Gesichtserkennung Künstliche Intelligenz wird zunehmend dazu verwendet, intime Charakteristika und Neigungen zu analysieren und zu erkennen. Das kann zu einem ernsten Problem werden
Künstlich intelligent und voller Stereotype
Künstliche Intelligenz agiert oft mit vereinfachten Kategorien

Foto: Ian Waldie/Getty Images

Gemäß dem alten Sprichwort „Wissen ist Macht“ streben Unternehmen immer stärker danach, intime Detailinformationen ihrer Kunden zu sammeln, um einen Wettbewerbsvorteil gegenüber ihren Mitstreitern zu erhalten. Der Anstieg vonkünstlicher Intelligenz oder auch der KI – also Algorithmen, die von Maschinen dazu verwendet werden, riesige Datenmengen auszuwerten – stellt eine besonders verlockende Möglichkeit dazu dar. Genauer gesagt ist der enorme Fortschritt im Bereich der künstlichen Intelligenz, besonders in der Musterunterscheidung und Kategorisierung, ein führendes Forschungsobjekt, um die Fähigkeiten für zunehmend schwierigere Datengewinnungsaufgaben zu untersuchen.

Diese Technologie ist nicht mehr beschränkt auf die einfache Kategorisierung von direkt nachvollziehbaren Online-Verhaltensweisen wie beispielsweise das Liken von bestimmten Marken oder Bildobjekten. Künstliche Intelligenz wird auch dazu benutzt, intimere Charakteristika wiePersönlichkeit, Geschlecht und AlterdurchSprachgebrauch auf diversen sozialen Medienzu analysieren. Zusätzlich wird eine Gesichtsbildanalyse durchgeführt, um die Wahrscheinlichkeit zu bestimmen, ob jemand ein Verbrechen begehen wird oder ob er einTerrorist oder pädophiler Verbrechersein könnte. Erst neulich hat eine Gruppe von Forschern der Universität Stanford künstliche Intelligenz dazu benutzt,die sexuelle Orientierung durch Fotos von unterschiedlichen Gesichtern vorherzusagen. Natürlich hat die Entwicklung solcher Methoden, bei denen persönliche Informationen über die Probanden gewonnen wurden, enorme Auswirkungen für die Privatsphäre.

Noch problematischer wird es, wenn es um die algorithmenbasierte vereinfachte Kategorisierung von Personen geht. Um künstliche Intelligenz für die Kategorisierung von Menschen auszubilden, müssen einzelne, definierte Zielkategorien vorgegeben werden und große Mengen vorklassifizierter Daten. So wird der Mensch auf einzelne sozio-psychologische Klassen reduziert.

Der Maschinen-„Gaydar“

Diekürzlich erfolgte Untersuchung, die basierend auf einem Foto zu bestimmen versuchte, ob eine Person homosexuell oder heterosexuell ist, ist ein klares Beispiel dafür, wie die Wahl von vorklassifizierten Kategorien uns ein binäres Bild von Sexualität auferlegt. Der Zweck der Studie war es, zu zeigen, dass Gesichter subtile Informationen über unsere sexuelle Orientierung enthalten, die von tiefen neuralen Netzwerken – eine Klasse von künstlicher Intelligenz – wahrgenommen und interpretiert werden können.

Um eine ausreichend große Datenmenge für diesen Typ des maschinellen Lernens zu erhalten, sammelten sie 130.741 Portraits von öffentlichen Profilen auf amerikanischen Dating-Webseiten. Der Datensatz enthielt die gleiche Anzahl an Bildern von homosexuellen und heterosexuellen Personen. Die sexuelle Orientierung wurde je nach den Voreinstellungen, welches Geschlecht das Gegenüber haben sollte, das auf den Profilen eingesehen werden kann, bestimmt.

Auch wenn Dating-Webseiten einen recht eindeutigen Indikator für das sexuelle Interesse einer Person darstellen mag, widerspricht der Einsatz dieser Daten zum Training einer binären Klassifizierung der Realität eines vielfältigerenSpektrums unseres Verständisses von sexuellen Ausrichtungen, die sich von Asexualität bis zu diversen Graden der Bisexualität erstrecken können.

Das Problem ist folgendes: Wenn ein automatisches System erst einmal in der Lage ist, eine solche heruntergebrochene Einteilung mit einem hohen Grad an Verlässlichkeit bereitzustellen, wird es zu einem Werkzeug, dass einfach als Maßstab herangezogen werden kann. Klassifizierungen, die auf diesen vereinfachten sozio-psychologischen Merkmalen basieren, werden zu einem interessanten neuen Wert, mit dem die Personalisierung von Diensten ergänzt werden können. Sollte sich eine solch vereinfachte Perspektive auf Menschen weiter etablieren, haben wir alle ein ernstzunehmendes Problem.

Der Diskussionsteil der Studie zur Kategorisierung von Gesichtern indiziert, dass die Forscher sich den weiteren Konsequenzen dieser Art von Studie bewusst sind. Sie gehen sogar so weit, zu sagen, dass es eine der treibenden Motivationen für diese Arbeit war, die „politischen Entscheidungsträger, die generelle Öffentlichkeit und homosexuelle Gemeinschaften auf das Risiko, dem sie bereits gegenüberstehen könnten, darauf aufmerksam zu machen“. Dies geschehe aufgrund von Tätigkeiten, die „wahrscheinlich hinter verschlossenen Türen in Unternehmen und Regierungsorganisationen durchgeführt werden“.

Feedback beschaffen

Unglücklicherweise folgte die eingesetzte Methode, trotz des sozialen Bewusstseins, der gängigen Praxis in diesem Forschungsbereich, wo alle öffentlich zugänglichen Daten als „Freiwild“ gelten – unabhängig davon, ob die Forschungsobjekte niemals beabsichtigten, diese Daten für Forschungszwecke bereitzustellen. Natürlich wäre es schwierig gewesen die Personen zu kontaktieren, deren Bilder genutzt wurden. Aber zumindest hätte man Vertreter von unterschiedlichen Gemeinschaften für die Rechte Homosexueller konsultieren sollen.

Um ihre Bedenken über den Einfluss dieser Art von Forschung auf die Rechte der Betroffenen auszudrücken, hätten die Forscher der betroffenen LGBT-Gemeinschaften die Möglichkeit geben sollen, ihre Sichtweise im Diskussionsteil der Arbeit preiszugeben. Dies hätte nicht nur deren eigene Reaktion verändert, sondern auch die Art der medialen Berichterstattung. Solch eine Einbeziehung der Interessensgruppen ist eines der Schlüsselprinzipien vonverantwortlicher Forschung und Innovation, die Nachhaltigkeit, Zugänglichkeit und Erwünschtheit von Forschungsprozessen und Leistungen zu garantieren versucht.

Um also die Probleme von unkontrolliertem Gebrauch von künstlicher Intelligenz für unternehmerischen Zugewinn zu adressieren, ist es wichtig, eine Kultur zu schaffen, die die Einbeziehung von Interessensgruppen fördert. Sie sollte zudem auch ethische Fragen innerhalb der Bereiche der Forschung und Entwicklung von künstlicher Intelligenz beachten. Die gute Nachricht ist, dass dies bereits durch die Zunahme von ethischenRichtlinien,Initiativenund der Entwicklung vonethisch basierten Industriestandardsin Angriff genommen wird. Sie sollen Möglichkeiten bereitstellen, um den ethischen Gebrauch von künstlicher Intelligenz sicherzustellen, ganz ähnlich denen der Lebensmittelsicherheitsstandards.

Dieser Artikel erschien zuerst auf Netzpiloten.de, bzw. aufThe Conversationunter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion

Ansgar Koene ist Forschungsbeauftragter an der Universität in Nottingham. Zu seinem Forschungshintergrund gehört biologisch inspirierte Robertertechnik, künstliche Intelligenz und Computer-Neurowissenschaften bis hin zu experimentellen Studien zu menschlichem Verhalten und Wahrnehmungen

16:51 11.01.2018
Geschrieben von

Ansgar Koene | Netzpiloten

Netzpiloten surfen oberhalb der Wolkendecke. Seit 1998 entdecken wir mit Euch, dass das Web mehr zu bieten hat als bedruckte Seiten hinter Glas
Schreiber 0 Leser 33
Netzpiloten

Ihnen gefällt der Artikel?

Dann lesen Sie noch mehr Beiträge und testen Sie die nächsten drei Ausgaben des Freitag kostenlos:

Abobreaker Startseite 3NOP plus Verl. ZU Baumwolltasche

Kommentare 1

Avatar
Ehemaliger Nutzer | Community