Vor 30 Jahren hätte die Vorbereitung auf dieses Interview im Redaktionsarchiv im Keller begonnen. Heute kann man sich einen Arbeitsalltag ohne Internetrecherche und ohne Automatisierung nicht mehr vorstellen. Aber was bedeutet es, wenn lernende Algorithmen im Personalmanagement eingesetzt werden und darüber entscheiden, ob man einen Job bekommt?
der Freitag: Frau Ogolla, wir streamen Filme, nutzen Suchmaschinen und rufen: „Alexa, mach das Licht aus!“ Algorithmen gehören zum Alltag. Aber bei Künstlicher Intelligenz haben viele einen Roboter vor Augen, der den Job wegschnappen oder sogar die Weltherrschaft übernehmen könnte. Woran liegt das?
Shirley Ogolla: Dystopische Filme wie Terminator oder „R2-D2“ aus Star Wars als liebenswerte Roboter-Variante spielen sicher eine Rolle. Diese Bild-Epistemologie setzt sich bis in die aktuelle Debatte um Künstliche Intelligenz fort. Da werden fast immer humanoide Roboter gezeigt. Es gibt diese Vorstellung einer menschenähnlichen Superintelligenz, die selbst agiert und sich eigene Ziele setzt. Die Politik unterscheidet zwischen starker und schwacher KI. Falls es Sie beruhigt, die Wissenschaft ist sich ziemlich einig, dass wir von der Einsatzfähigkeit einer solchen starken KI weit entfernt sind.
Mit welcher KI haben wir es im Moment zu tun?
Vorab: Der Begriff „Künstliche Intelligenz“ ist umstritten. Was Intelligenz genau ausmacht und ob sie messbar ist, wird kontrovers diskutiert. Bei dem, was inzwischen in immer mehr Bereichen unseres Alltags und unserer Arbeitswelt Anwendung findet, sprechen wir von Machine Learning oder lernenden Algorithmen. Das sind Systeme, die auf Basis von Datensätzen trainiert werden, um Muster zu erkennen und Probleme zum Teil eigenständig zu lösen.
Bei meinem ersten Praktikum wurden Radiobeiträge noch analog geschnitten. Heute kann ich mir den Beruf ohne digitale Tools und Suchmaschinen nicht mehr vorstellen...
... und für viele Wissenschaftler:innen gehört die Literaturrecherche in Online-Datenbanken und mit Google Scholar zum Alltag.
Gleichzeitig wissen wir, dass unsere Nutzerdaten der Rohstoff für digitale Geschäftsmodelle sind. Bis zur Angst vor der Automatisierung als Jobkiller ist es da nicht weit.
Diese Angst ist aber nicht neu. Schon während der ersten industriellen Revolution ging es bei der Einführung der „Spinning Jenny“ auch um die sozialen Folgewirkungen für die Weber:innen. Und als in den 1960ern die ersten Industrieroboter kamen, warnte man vor der „menschenleeren Fabrik“. Aber Sie denken wohl an die Oxford-Studie von 2013, die davor warnte, dass in den nächsten 25 Jahren durch Automatisierung 47 Prozent aller Jobs wegbrechen könnten.
Genau.
Man muss den Beschäftigtenabbau immer mitdenken, gerade im Angesicht der Corona-Krise. Aber ich rechne nicht damit, dass wir das Szenario der Oxford-Studie zeitnah erleben werden. Was wir in der Arbeitswelt beobachten, ist der Einsatz von KI-Anwendungen, die einzelne Aufgaben und Tätigkeiten im Arbeitsprozess entlasten, unterstützen oder ersetzen können. Es geht nicht um ganze Jobprofile oder Berufe, sondern meistens um Routineaufgaben, und das in sehr engen Anwendungsfeldern.
Routineaufgaben wirken im Arbeitsalltag aber auch entlastend.
Es gibt Routinetätigkeiten, die sind anstrengend oder ermüdend. Andererseits wäre es schlecht, wenn zur Steigerung von Effizienz sämtliche Routineaufgaben plötzlich wegfallen würden und man sich nur noch mit vielfältigen und komplexen Aufgabenstellungen befassen sollte. Das läuft auf mehr Leistungsdruck, mehr Belastung hinaus. Schon bei diesem Beispiel zeigen sich Chancen, aber auch Risiken. Es geht um die Frage, ob wir lernende Algorithmen mit dem Ziel einsetzen, Menschen wirklich zu unterstützen und die Arbeitsbedingungen zu verbessern.
Arbeitszeitverkürzung wird im Zuge der Digitalisierung wieder häufiger ins Spiel gebracht.
Ja, und das finde ich persönlich auch zeitgemäß. Nicht nur im Hinblick auf die Frage, ob die Arbeit anspruchsvoller wird, wenn KI-Anwendungen immer mehr Routineaufgaben übernehmen. Aber es muss auch sichergestellt sein, dass das Leitbild „Gute Arbeit“ gilt. Im Zusammenhang mit KI-Anwendungen sind neue Jobs entstanden. Es gibt gut verdienende Data Scientists und Data Engineers, aber auch prekäre Crowdworker, die als Selbstständige für sehr wenig Geld Apps testen, Bilder kategorisieren oder Produkttexte für den Online-Handel schreiben. Und dann gibt es die sogenannten Datenhausmeister, die sozusagen das Netz sauber halten. Das ist ein Job, der psychisch sehr belastend sein kann. Sie schauen sich kritische Inhalte im Internet an, löschen Hasskommentare oder Videos, in denen rohe Gewalt dargestellt wird. Beim Sichten und Löschen werden auch lernende Algorithmen mit Daten gefüttert, die diese Aufgabe in Teilen vielleicht irgendwann übernehmen könnten.
Zur Person
Shirley Ogolla, geboren 1993, ist wissenschaftliche Mitarbeiterin am Alexander von Humboldt Institut für Internet und Gesellschaft in Berlin. Sie forscht zu Chancen und Risiken bei KI-Anwendungen in der Arbeitswelt und zu sozialen Implikationen von KI in der Wissensarbeit. Zudem ist sie Mitgründerin des internationalen Künstler:innen-Kollektivs no:topia. Die Gesellschaft für Informatik zeichnete sie 2019 als eine von zehn jungen Wissenschaftler:innen für herausragende KI-Forschung aus.
Das ist Arbeit, die versteckt im Internet stattfindet. Wie sieht es bei Festangestellten aus, wenn Unternehmen planen, KI-Anwendungen einzusetzen?
Wenn man die Belegschaft früh miteinbezieht, durch Informationsaustausch und Fortbildungsangebote, erhöht das die Akzeptanz. Vor allem die Domänen-Expert:innen, das sind langjährig Beschäftigte, die alles über die Arbeitsorganisation und einzelne Arbeitsschritte in ihrem Bereich wissen, spielen eine wichtige Rolle. KI-Anwendungen brauchen in den meisten Fällen dieses Kontextwissen, wenn ihr Einsatz sinnvoll sein soll. Einige Unternehmen haben standardisierte Prozesse, auch aus rechtlichen Gründen. Paragraf 87 des Betriebsverfassungsgesetzes legt beispielsweise fest, dass der Betriebsrat involviert sein muss, wenn ein Tool eingesetzt werden soll. Betriebsräte können es ablehnen, wenn Unternehmen für die interne Kommunikation Plattformen wie Slack, Trello oder Teams nutzen wollen.
Warum?
Vor allem wegen der Befürchtung, dass das Tool auch zur Beobachtung der Beschäftigteneingesetzt werden könnte. Slack wirbt in seinen Slogans zum Beispiel mit mehr Empowerment für alle und mehr Partizipation. Wir haben dazu am HIIG ein Forschungsprojekt gemacht und festgestellt, dass solche Tools auch in dieser Hinsicht einen gegenteiligen Effekt haben können. Das heißt nicht, dass solche Kollaborationsplattformen prinzipiell keine nützlichen Werkzeuge für mehr Mitbestimmung sind. Aber wenn ein Unternehmen eine große Informationsasymmetrie hat – also ein Machtgefälle zwischen denen, die über viele Informationen verfügen und denen, die nur wenige Informationen haben – dann setzt sich diese Hierarchie nicht nur häufig online fort, sie kann sich dadurch auch weiter verfestigen.
In Ihrem aktuellen Forschungsprojekt geht es um den KI-Einsatz in der Wissensarbeit. Warum haben Sie sich dafür entschieden?
Weil das Arbeitsverhältnisse sind, bei denen man vermuten könnte, dass sie weniger von Automatisierung betroffen sind. Aber auch dort werden KI-Anwendungen im Praxisbetrieb immer relevanter.
Können Sie Beispiele nennen?
Wir haben uns bei Zeit Online angesehen, wie eine KI-Anwendung zur Unterstützung beim Herausfiltern von toxischen Social-Media-Kommentaren entwickelt und getestet wird. Es gibt dort täglich Tausende Kommentare unter Artikeln, für die Moderation ist das Community-Team zuständig, das auf die Netiquette achtet. Eine KI-Anwendung einzusetzen, wenn die Kommentarspalten explodieren, wäre da eine Entlastung. Ein anderer Praxisfall ist die Staatsbibliothek zu Berlin, die schon seit 2010 ihre urheberrechtsfreien Bestände digitalisiert und kostenlos online publiziert. Da gibt es einen Datenschatz von rund 2,5 Petabytes. Will man einen Algorithmus trainieren, ist das ein Datentraum. Die Staatsbibliothek entwickelt schon länger KI-Anwendungen, die Wissenschaftler:innen etwa helfen, Handschriften aus dem 15. Jahrhundert zu entziffern und nachhaltig zu digitalisieren.
Sie selbst haben mit Ihrem Kollektiv no:topia letztes Jahr im Berliner Futurium die Installation „KI Orakel“ ausgestellt. Da ging es aber eher um dystopische Effekte. Warum?
Mit dem KI Orakel wollen wir Menschen für das Thema Zukunft der Arbeit und das Risiko von Diskriminierung durch KI-Anwendungen, die im Personalmanagement eingesetzt werden, sensibilisieren. In unserer begehbaren Installation werden die Besucher:innen fiktiv gescannt, und am Ende spuckt die Maschine eine Job-Prognose aufgrund von Daten wie Geschlecht, Alter und Bildungsstand aus. Rein metaphorisch, es war eine KI-Simulation, und wir haben natürlich nicht heimlich persönliche Daten abgegriffen.
Wie waren die Reaktionen?
Es wurde unglaublich viel in diese Installation hineinprojiziert. Viele haben vermutet, dass wir uns über ihr Smartphone in der Hosentasche Zugriff auf ihre Daten verschafft haben. Uns ging es darum, ein Gefühl dafür zu vermitteln, wenn KI-Anwendungen Entscheidungen mit weitreichenden sozialen Folgen treffen. Ich fand es berührend, zu sehen, wie nachdenklich das manche stimmt hat. Eine Installation kann Menschen auf ganz andere Weise berühren als ein akademischer Artikel in einer wissenschaftlichen Publikation.
Wie sind Sie auf die Idee gekommen, ein Kunstkollektiv mitzugründen?
Die Idee kam bei einem Sommerprogramm in Harvard. Da haben sich viele mit Interoperabilität von technischen, rechtlichen und ethischen Fragestellungen beschäftigt. Einige Forscher:innen haben dabei ihre Projekte auch künstlerisch umgesetzt.
Auch im Zuge von „Black Lives Matter“ schärft sich der Blick auf diskriminierende Algorithmen.
Die Wissenschaft bezeichnet das als Bias, also Vorurteile und statistische Verzerrung. Das Problem ist, dass die Datensätze, mit denen KI- Modelle trainiert werden, nicht divers genug sind. Letztlich geht es aber nicht um Diskriminierung durch Technik, sondern um Diskriminierung durch Menschen, die durch Technologie amplifiziert wird. In den USA ist die rassistische Diskriminierung durch KI-Anwendungen im Justizsystem und die Gesichtserkennung, die die Polizei nutzt, schon lange ein Thema. Die Informatikerin und schwarze Aktivistin Joy Buolamwini hat am Massachusetts Institute of Technology zum Beispiel ein Projekt initiiert, bei dem man sein „Gesicht spenden“ kann, damit die Gesichtserkennung diverser wird.
Wie läuft die Diskriminierung im Personalwesen ab?
Es gibt diesen Klassiker: Der Algorithmus hat gelernt, erfolgreiche Mitarbeiter:innen seien jene, die mindestens einmal befördert wurden. Wenn er mit Daten aus einer Firma gefüttert wird, in der in 20 Jahren keine einzige Frau befördert wurde, dann werden keine Bewerberinnen zum Gespräch eingeladen. Weil der Algorithmus denkt, Frauen seien weniger erfolgreich als andere.
Reichen diversifizierte Datensätze zur Lösung des Problems?
Ich denke nicht. Diskriminierungsverhalten ist kein technisches, sondern ein gesellschaftliches Problem. Ein weiterer Schritt wäre, neben Informatiker:innen auch Sozialwissenschaftler:innen und Politikwissenschaftler:innen einzubeziehen und die Teams divers zusammenzusetzen. Es gibt auch viele Ansätze, KI für gute Zwecke zu nutzen. Zum Beispiel, um menschliche Diskriminierung zu erkennen. Und es ist höchste Zeit, dass wir eine inklusive Ethik-Debatte darüber führen, welche Entscheidungen wir als Gesellschaft eigentlich Algorithmen überlassen wollen und welchen Menschen.
Was ist Ihre Meinung?
Kommentare einblendenDiskutieren Sie mit.