Alltagsrassismus - KI zeigt ihn

Weißer Mann und schwarze Frau? Werbung flutet uns mit "People of Colour" in einer Menge, wie sie uns im Alltag selten begegnen. "Nudging" wohin und wozu? Und massenweise Paare Weiße Frau und dunkler Mann. Dagegen: Weißer Mann und schwarze Frau: Pfui, nie und nimmer!

Bei diesem Beitrag handelt es sich um ein Blog aus der Freitag-Community.
Ihre Freitag-Redaktion

Werbung flutet uns mit "People of Colour" in einer Menge, wie sie uns im Alltag selten begegnen. Wenn eine solche Werbung ganz offensichtlich nicht die Realität abbildet, ist es "Nudging", und man mag fragen wohin und wozu? Aber das wäre ein ganz anderes Thema, auch die interessante Frage, ob diese Werbung damit letztendlich dem Verkauf des beworbenen Produkts zuträglich ist oder ob eher das Gegenteil der Fall ist.

Die hinter deraertiger Werbung steckende Psychologie interessiert mich hier also jetzt nicht, es sei jetzt nur festzuhalten, dass die werbenden Firmen hier plakativ demonstrieren wollen: Schaut her, wir sind keine Rassisten!

Mir geht es hier diesmal um etwas Anderes: Massenweise sieht man dabei Paare in der Kombination Weiße Frau und dunkler Mann. Dagegen die andere Variante, Weißer Mann und schwarze Frau, ist absolut tabu, also folglich: Pfui, nie und nimmer!

Man sehe sich diese Collage an:

Eingebetteter Medieninhalt.

Warum ist das so? Warum ist Weißer Mann mit schwarzer Frau Pfui?

Tut mir leid, liebe werbetreibende Gutmenschen: Solange das so ist und bleibt, beweist das nur, was für kracherte Rassisten ihr doch seid!

Das kam mir heute Morgen auf, als ich das KI-basierte Programm https://playground.com/ Porträts für den Roman, an dem ich gerade schreibe, zeichnen ließ. Da kommt in einem Kapitel auch der englische Schiffsjunge Peter Salisbury vor, der 1743 in dem englischen Krieg gegen den fiktiven atlantischen Inselstaat Ix. in Gefangenschaft gerät und dort schließlich die (schwarze) Tochter des (schwarzen) Kommandeurs heiratet.

Der "Prompt", also die Vorgabe, was die KI malen soll, war also klar: Weißer Mann mit schwarzer Frau. Erst stellte ich die Angabe für den Mann an die erste Stelle, als die Ergebnisse mir nicht gefielen, die Angaben für die Frau.

"in the manner of an 18th. century picture portrait of a black woman in Arab dress and a white man with oriental dress and a blue turban"

Und das sind die Ergebnisse. Sehen Sie sich alle Paare an: Immer ist es ein dunkler Mann mit einer hellhäutigen Frau. Bestenfalls kommt ein Paar heraus, bei dem die beiden etwa gleich viel "Pigmentierung" abbekommen haben. Der Platztausch von Mann und Frau in der Anweisung hatte höchstens zur Folge, dass die Frau jetzt öfters auf der linken Seite Platz nahm. Das war alles.

Nach sechs Durchgängen mit je vier Bildern, als immerhin 24 Bildern, habe ich aufgegeben (der 6. Versuch oben, der erste unten).

Eingebetteter Medieninhalt

Eingebetteter Medieninhalt

Eingebetteter Medieninhalt

Eingebetteter Medieninhalt

Eingebetteter Medieninhalt

Eingebetteter Medieninhalt

Dann habe ich einmal versucht, die KI zu "überlisten" und die Anweisung geändert. Jetzt wollte ich einen irischen Mann mit einer Senegalesin bekommen. Und das ist das KI-Traumpaar:

Eingebetteter Medieninhalt

Aber Hartnäckigkeit zahlt sich ja manchmal aus. Wie wäre es denn mal mit einer Nigerianerin und einem Schweden? Das kommt dabei heraus:

Eingebetteter Medieninhalt

Jetzt lassen wir es doch einmal mit dem "weißen" Mann und lassen stattdessen eine Nigerianerin mit einem Chinesen zeichnen. Hier sind sie:

Eingebetteter Medieninhalt

Der Rassismus unserer KI geht also noch ein Stück weiter.

Jetzt gehen wir einfach einmal in die Geschichte und lassen zeichnen:

in the manner of an 19th. century picture portraits of a 1850 US young slave girl and her owner, an older Louisiana cotton farmer.

Eingebetteter Medieninhalt.

Aha. Diesen Sklavenhalter hätte man um 1850 in Louisiana wirklich sehr lange suchen müssen. Wenn man präzisiert und den Farmer zusätzlich noch "white" haben will, dann kommt dasselbe Bild, nur hat er jetzt in Haar und Bart weiße Flecken.

Noch drei Versuche. Julius Caesar mit schwarzem Mädchen und Napoleon Bonaparte mit schwarzer Frau und dann auch noch Josef Stalin mit schwarzer Frau ergibt Folgendes:

Eingebetteter Medieninhalt

Eingebetteter Medieninhalt

Eingebetteter Medieninhalt

Am nächsten Tag noch einmal ein Versuch: Ich lasse erst die KI einmal einzelne Porträts anfertigen, erst einen "Iren" und dann eine "Senegalesin". Die gelingt mir erst im vierten Versuch. Hier äußert sich noch ein anderer Rassismus der KI: Die ersten drei Versuche mit "black woman", "black woman with dark skin" und sogar "black woman with very dark skin" ergeben keine "Schwarze", sondern eher eine "Mulattin". Die KI findet Frauen also offensichtlich dann hübscher, wenn sie nicht so dunkel sind. Erst mit dem weiteren Zusatz "Senegalese" kam dann eine "Schwarze" heraus. Und dann verbinde ich beide Anweisungen zu einem doppelten Porträt des "Iren" und der "Senegalesin". Das Ergebnis:

Eingebetteter Medieninhalt

Die KI macht ja nur das, womit sie gefüttert wurde. Sie greift dabei auf einen großen Teil des Internets zurück. Dann sind Filter eingebaut, die Diskriminierendes, Sexistisches, Gewaltverherrlichung blocken (sollen).

Fazit: Die KI ist so gefüttert, das die Kombination Weiße Frau - Dunkler Mann erwünscht ist. Die Kombination Weißer Mann - Schwarze Frau ist absolut Tabu, in jeder Kombination. Das geht gar nicht, nicht einmal in einem Roman im Jahr 1743.

Hinter jeder KI stecken Menschen bzw. das, was Menschen gemacht haben. Heuchler und Rassisten, dass es nur so kracht.

Dieser Beitrag gibt die Meinung des Autors wieder, nicht notwendigerweise die der Redaktion des Freitag.
Geschrieben von

Dietrich Klose

Vielfältig interessiert am aktuellen Geschehen, zur Zeit besonders: Ukraine, Russland, Jemen, Rolle der USA, Neoliberalismus, Ausbeutung der 3. Welt

Dietrich Klose

Was ist Ihre Meinung?
Diskutieren Sie mit.

Kommentare einblenden