Da fasst sich sogar der Roboter an den Kopf: Frauen und People of Colour erfahren durch Algorithmen eine systematische Benachteiligung
Foto: Chris Mueller/Redux/laif
Die Bloggerin Lisa Ringen kritisierte 2017 ein bekanntes Online-Karrierenetzwerk. „Kaum jemand wird auf den Gedanken kommen, dass die Xing-Suche Expertinnen des gleichen Berufszweigs komplett ausschließt“, schrieb sie damals auf ihrer Webseite. Beim Scrollen durch die Ergebnisliste bei Google entstehe der „unterschwellige Eindruck, Männer seien die erfolgreicheren, kompetenteren Fotografie-, Beratungs- und Grafik-Spezialisten“.
Mit der Wirklichkeit habe das aber wenig zu tun, der Grund dafür sei vielmehr die nur scheinbar objektive Logik des verwendeten Algorithmus. Nach rein mathematischen Vorgaben gesteuerte Suchmaschinen können zum Beispiel die Wörter „Architekt“ und „Architektin“ nicht als Synonyme erkennen.
Auf Bil
en.Auf Bildschirmen und Displays erscheint dann die irritierte Nachfrage: „Meinten Sie Architekt?“ Die männliche Form einer beruflichen Tätigkeit wird bei Internetrecherchen viel häufiger eingegeben. Das ist keine sprachliche Kleinigkeit, sondern hat ausgrenzende Folgen: Wenn sich freiberuflich tätige Frauen im Netz als „Ärztin“, „Anwältin“ oder „Autorin“ vorstellen, sich bei ihren Online-Angeboten also der weiblichen Schreibweise bedienen, sind sie für ihre potenzielle Kundschaft schwieriger auffindbar als ihre männlichen Kollegen.Fünf Jahre nach der Beschwerde über Xing hat sich eine breite und inzwischen auch in der Wissenschaft angekommene Debatte über digitale Diskriminierung entwickelt. Mögliche Betroffene von fehlerhaft eingestellten Algorithmen sind dabei nicht nur Frauen, es können auch People of Color sein. Auf Testparcours zum autonomen Fahren etwa sollen Autos von selbst bremsen, sobald ein Mensch die Fahrbahn kreuzt. Bei weißen Passant:innen klappt das verlässlich, bei nicht-weißen Menschen jedoch nicht immer. Ein anderes, besonders eindrückliches und immer wieder angeführtes Beispiel ist der automatische Seifenspender, der nur weißen Personen die gewünschte Flüssigkeit ausspuckt. Ein Video, in dem ein Schwarzer Mann demonstriert, dass der eingebaute Infrarotsensor nicht auf seine Hand, auf ein weißes Papiertaschentuch aber sehr wohl reagiert, wurde im Netz mehrere Millionen Mal angeklickt.Ähnlich fehlerhaft funktionierte zeitweise eine Software an Flughäfen in Neuseeland: Sie erkannte die Pässe asiatischer Reisender nicht, weil der Algorithmus ermittelt hatte, die Augen der dort Abgebildeten seien geschlossen.Solche Formen der Benachteiligung lassen sich technisch relativ leicht abstellen, doch die Ursachen im Gender-Bereich liegen tiefer. Denn hier beruhen die einprogrammierten Vorurteile auch auf der (manchmal gar nicht gewollten, sondern unbewusst wirkenden) geschlechterpolitischen Ignoranz der Computer-Nerds.Der Anteil männlicher Mitarbeiter beträgt in allen wichtigen Konzernen des kalifornischen Silicon Valley über 60 Prozent, in den Technologieabteilungen von Facebook, Microsoft, Uber, Google oder Apple übersteigt er gar die 80 Prozent. In deutschen Unternehmen sieht es ähnlich aus: Laut Zahlen der Statistikbehörde Eurostat sind Frauen in der Branche stark unterrepräsentiert, nur jede fünfte IT-Fachkraft hierzulande ist weiblich.Daten des Patriarchats„Der Algorithmus ist ein Macho“, lautet daher die plakative Schlagzeile eines Online-Beitrags zum Thema. Bei Zoom-Konferenzen oder anderen Diskussionsformaten erkennt die Software weibliche Stimmen und Gesichter schlechter, fanden Wissenschaftlerinnen der dänischen Universität Sønderborg in einer Studie heraus. Auch Stellengesuche von Frauen behandelt die angeblich unvoreingenommene künstliche Intelligenz, kurz KI genannt, häufig nachrangig.Der elektronische Speicher trägt dazu bei, dass meist Männer auf den ersten Plätzen der Bewerbungslisten landen. Denn gefüttert wird die Maschine vorwiegend mit Erfahrungswerten und Auswahlkriterien aus der Vergangenheit. Die genutzten Informationen sind manchmal längst überholt. Sie stammen teilweise noch aus rein patriarchal geprägten Zeiten, stützen sich auf traditionelle Geschlechterrollen, denen zufolge Männer ganz selbstverständlich die Ernährerfunktion und Frauen die Haus- und Carearbeit übernahmen. Im Extremfall können die programmierten Inhalte auch rassistische oder sexistische Elemente enthalten. „Sind die Daten mit Ungleichheit gespickt, so schlägt sich diese Ungleichheit auch in den Resultaten der Algorithmen nieder“, betont der Medienwissenschaftler Tobias Matzner, der an der Universität Paderborn zum Thema forscht.KI ist also keineswegs so fair, unvoreingenommen und diskriminierungsfrei, wie immer wieder behauptet wird. „Neutralität gibt es für Algorithmen nicht“, betont Matzner. Vielmehr wiederholen sich im digitalen Raum die althergebrachten Muster der realen Welt.Das kann gravierende Konsequenzen für die Entscheidungsprozesse in Betrieben und Institutionen haben. Suchmaschinen bestimmen in wachsendem Umfang mit, wer an einer beliebten Hochschule zugelassen wird, wer einen Immobilienkredit zu attraktiven Konditionen erhält oder wer eine günstige Versicherungspolice abschließen kann. Eine Untersuchung der US-amerikanischen Carnegie Mellon University ermittelte, dass Frauen bei Google weniger gut bezahlte Stellen in Führungspositionen angezeigt bekommen als Männer.Schon 2015 geriet Amazon in die Schlagzeilen, weil ein im Konzern entwickeltes Programm weibliche Bewerberinnen bei der Vergabe lukrativer Jobs systematisch aussortierte. Die (mittlerweile überarbeitete) Software war darauf getrimmt, Anfragen von Menschen mit über zehn Jahren Berufserfahrung zu bevorzugen – dieses Kriterium erfüllten eher männliche Bewerber. 2020 wurde bekannt, wie Geschlechterstereotype die Stellenausschreibungen bei Facebook prägen.Die Suche nach einem Lkw-Fahrer (männlich/weiblich/divers) bekamen Männer zehn Mal häufiger angezeigt als Frauen. Die Suche nach einer Erzieherin (männlich/weiblich/divers) hingegen landete zwanzig Mal so oft bei weiblichen Nutzerinnen. In Österreich ist ein Algorithmus heftig umstritten, der die künftigen beruflichen Möglichkeiten von Arbeitslosen prognostizieren soll. Frauen erhalten von der Software Minuspunkte, wenn sie Kinder haben – und weil ihnen aufgrund historischer Daten ohnehin schlechtere Jobchancen zugeschrieben werden.Minuspunkte mit KindAuf dieser Basis folgt dann die Einstufung in eine hohe, mittlere oder niedrige Kategorie bei den Angeboten zur Wiedereingliederung. So reproduziert und verfestigt das digitale Bewertungssystem die Benachteiligung von Frauen auf dem Arbeitsmarkt. Dagegen anzugehen, ist für die Betroffenen schwierig. Denn die Auswahlkriterien von computergesteuerten Systemen sind viel versteckter als die klare Entscheidung eines Prüfgremiums der Personalabteilung nach einem persönlichen Gespräch. Die durch elektronisches Filtern abgelehnten Kandidatinnen können den Vorgang oft „nicht richtig nachvollziehen, weil die Funktionsweise der Anwendung undurchsichtig ist“, sagt Lisa Hanstein.Die einstige Softwareentwicklerin bei SAP kennt die geschlechtshomogen von Männern geprägten Strukturen der Branche. Inzwischen setzt sie sich an der Europäischen Akademie für Frauen und Politik in Berlin für mehr Transparenz und den Abbau digitaler Diskriminierung ein. „IT gilt als sehr rational“, betont die Expertin, „dabei vergessen wir, dass sie von Menschen hergestellt wird und diese Menschen in Stereotypen denken“. Oft geschehe das „ohne böses Zutun oder Absicht“.Die Unternehmensberaterin Janina Kugel, früher im Vorstand von Siemens, fordert ein Umdenken in den Chefetagen. Die Tech-Branche müsse „diverse Erfahrungen und Lebensrealitäten einschließen“, mahnte sie im Juni 2021 im Manager Magazin. Ihre provokative Kolumne trug den Titel „Der Code der Diskriminierung“. Es reiche nicht, die Welt „als eine Ansammlung von Nullen und Einsen zu sehen“. Neben der Perspektive der vorwiegend männlichen Ingenieure seien auch andere Zugänge wichtig, etwa die der Sozial- und Geisteswissenschaften. Denn: „Künstliche Intelligenz kann nur mathematische Entscheidungen treffen, keine ethischen.“