Subjektivität skalieren

Digitalisierung Algorithmen sind unfehlbar. Die Daten, auf denen ihre Entscheidungen basieren, sind es nicht
Subjektivität skalieren
Fakten, Fakten, Fakten – oder etwa nicht?
Foto: Zuma Press/Imago

Ludwig Wittgenstein erklärte vor 95 Jahren in seinem Opus Magnum Tractatus logico-philosophicus: „Die Welt zerfällt in Tatsachen.“ Der junge Wittgenstein glaubte an eine atomare Wahrheit, an ein Universum, das auf umspaltbaren Fakten gebaut ist. In späteren Werken widerrief er seine früheren Ideen, hielt sie für naiv, für eine akademische Verwirrung. Der Nachwelt ist das egal. Sie hält Wittgensteins Analysen für so messerscharf wie Robert Pattinsons Wangenknochen in Twilight. Beide werden wohl nie der populären Mittelmäßigkeit ihrer frühen Werke entrinnen können.

Dennoch hatte Wittgenstein mit seinem analytischen Zugang zu Sprache und Wahrheit einen großen Einfluss auf Generationen von Philosophen, Linguisten, und Mathematikern – unter anderen jene, die später Computerwissenschaft als wissenschaftliches Feld begründen würden. Deswegen ist es nicht verwunderlich, dass Informatik heute als „exakte“ Wissenschaft wahrgenommen wird. Computer berechnen und analysieren, sie sind ohne Zweifel deterministisch und unparteiisch, machen keine Messfehler und haben ein perfektes Gedächtnis.

Das sollte eigentlich beruhigend sein, insbesondere wenn man sich vor Augen führt, welche Verantwortung Computern heute obliegt: Sie entscheiden, welche Werbung wir sehen und wo, ob wir den Kredit für das neue Auto bekommen, wen wir als Nächstes nach links oder rechts swipen, ob wir oben in unserer Timeline zuerst Baby-Fotos unserer Sitznachbarin im Deutsch-Leistungskurs 2002 sehen oder das Update unseres Großonkels, der einen Artikel der Jungen Freiheit teilt.

Und wenn der Computer entschieden hat, dass er uns einen Immobilienkredit mit 1,19 Prozent effektivem Jahreszins anbietet, wird das zu einem Fakt, einer der Wahrheiten, aus denen unsere Realität gebaut ist. Computer aber sind willenlose Knechte. Die eigentlichen Entscheidungen treffen Algorithmen, Wenn-dieses-dann-jenes-Kochrezepte für Datensuppen.

Wie viel verstehen wir wirklich davon, was im Computer passiert? Heute sind viele Algorithmen „lernfähig“, wie Kochrezepte, die sich selbst automatisch mit akribischer Detailversessenheit anpassen, bis sie ihren Michelin-Stern verdienen.

Wer studiert Mathe?

Stellen wir uns vor, Sie arbeiten für die örtliche Universität und haben das Ziel gesetzt bekommen, mehr Schülerinnen für ein Physik- oder Mathestudium zu begeistern, und sie über Stipendienmöglichkeiten zu informieren. Alle Schülerinnen der Stadt einzeln anzuschreiben ist nicht im Budget, also müssen Sie sich auf einige konzentrieren. Sie entschließen sich dazu, Schülerinnen anzuschreiben, die einen naturwissenschaftlichen Leistungskurs belegen oder in Mathe oder Physik besser als 2,5 stehen. Damit hätten Sie einen kleinen Algorithmus entwickelt: eine Reihe von Regeln, alle von Hand geschrieben.

Ein anderer Ansatz: Sie speisen dem Computer alle Daten ein, die Sie über Schülerinnen haben – Zeugnisnoten der letzten Jahre, Kurswahl, Postleitzahl und Hobbies, die sie auf Facebook angegeben haben. Das Gleiche tun Sie für aktuelle und ehemalige Mathe- und Physikstudentinnen. Ein mathematisches Modell soll dann ausrechnen, welche der Schülerinnen am ehesten dem Profil der Studentinnen entsprechen, welche also am wahrscheinlichsten ein Mathestudium beginnen werden. Die Regeln, die ein Computer mit so einem maschinellen Lernprozess finden kann, können beliebig komplex sein. Zum Beispiel:

Senden Sie den Werbeprospekt, wenn ((1,2 x aktuelle Mathe-Note) + (0,7 x Durchschnitt der letzten vier Zeugnisse) - (0,1 x Summe der letzten drei Geschichts-Noten) + (0,6, wenn die Postleitzahl in 03, 07 oder 11 endet) + (0,2 für jedes Hobby, das mit Tieren zu tun hat)) kleiner als 3 ist.

Für Menschen sieht die Regel arbiträr aus, aber im Ergebnis bekommen Sie auf Ihre Briefe an Schülerinnen mehr Antworten. In meiner täglichen Arbeit habe ich es oft mit Systemen zu tun, die hunderte Faktoren einbeziehen, und sie in tausenden von verschachtelten Gleichungen gegeneinander abwägen. Ob das einen traditionellen mathematischen Ansatz wie eine lineare Regression bedeutet oder ein sogenanntes neuronales Netz, wie es in den letzten zwei Jahren durch „Deep Learning“ wieder popularisiert wurde, ist letztlich irrelevant: Wir Menschen können unmöglich nachvollziehen, warum ein datengetriebener Algorithmus in einem bestimmten Fall die eine oder die andere Entscheidung trifft. Algorithmen schaffen Fakten, und obwohl sie sich aus diesen kleinen, atomaren Wahrheiten zusammensetzen, werden wir ihre Beschaffenheit nie verstehen können. Maschinelle Fakten können nur akzeptiert werden.

An sich sind solche lernfähigen Algorithmen etwas Gutes: Sie helfen uns, neue Künstler zu entdecken, die zu unserem Musikgeschmack passen, das Wetter vorherzusagen, Versicherungskosten zu minimieren. Mehr noch: Algorithmen schützen vor Vorurteilen und Vetternwirtschaft. Statt Stipendiatinnen von Lehrern aussuchen zu lassen, die in all ihrer Menschlichkeit voreingenommen und fehlbar sind, basieren unsere Entscheidungen auf Fakten. Herkunft, Hautfarbe, politische Ausrichtung oder Modegeschmack spielen für Algorithmen keine Rolle.

Wer wohnt wo?

Schön wär’s! Denn obwohl Algorithmen unfehlbar sind – die Daten, auf denen ihre Entscheidungen basieren, sind es nicht. Nehmen wir das obige Beispiel: Obwohl wir nur objektive, neutrale Daten verwenden, verbergen sich in ihnen oft soziale Wirklichkeiten. Postleitzahlen etwa sind stark mit Einkommensklasse und Bildungsniveau verbunden. Hobbys verraten etwas über Weltanschauung und politische Ausrichtung. Obwohl wir uns also Mühe geben, keine potenziell diskriminierenden Daten zu verwenden, sind diskriminierende Faktoren trotzdem oft in den Daten eingebettet.

Problematisch wird es, wenn wir nicht darüber nachdenken, wo die Daten herkommen und wofür sie benutzt werden.

Hierbei unterscheiden Programmierer drei Anwendungen für lernfähige Algorithmen: Deskriptive Systeme beschreiben die Welt, wie sie ist. Sie helfen uns, Zusammenhänge zu finden und historische Daten zu verstehen. Zum Beispiel, dass Schülerinnen aus den Postleitzahlenbereich 07 eher ein Mathestudium anfangen als ihre Altersgenossinnen im Gebiet 04. Prädiktive Systeme benutzen diese Zusammenhänge, um Vorhersagen zu machen, etwa dass die Zahl der Mathestudentinnen im Bereich 04 weiter steigen, in 07 aber langsam zurückgehen wird. Kurz gesagt, deskriptive System beantworten die Frage, was passiert ist, und prädiktive die, was passieren könnte. Bleiben präskriptive Systeme, die sagen, was wir tun sollten.

In unserem Beispiel passiert genau das: Das System gibt uns vor, welche Schülerinnen wir für ein naturwissenschaftliches Studium anwerben sollten. Die Daten, die wir benutzen, wurden aber von Stipendiatinnen generiert, die vor dem Algorithmus ihr Studium angefangen haben – also die, die im schlimmsten Fall durch Lehrerwillkür und die richtigen Kontakte ein Stipendium ergattert haben. Ein Algorithmus, der mit diesen Daten trainiert wurde, kann nichts anderes tun, als mehr Schülerinnen zu finden, die ins gleiche Schema passen. Statt Willkür abzuschaffen, haben wir sie automatisiert. Statt objektive Tatsachen zu schaffen, haben wir Subjektivität skaliert.

Stipendienvergabe ist ein harmloses Beispiel. Automatisierte Einstellungstests sind in vielen Unternehmen die Norm, und obwohl es verboten ist, jemanden aufgrund von Geschlecht oder Behinderungen nicht einzustellen, fließen diese Daten unbemerkt in Tests ein. Das US-Justizministerium musste zugeben, dass „No-Fly“-Listen auf lernfähigen Algorithmen beruhen statt auf belastbaren Beweisen. Ähnlich steigt die Zahl der „Pre-Crime“- Einheiten: Algorithmen, die Verbrechen vorhersagen und Polizeipräsenz in „gefährdeten Gebieten“ zu bestimmten Zeiten präventiv erhöhen.

Was lässt sich gegen algorithmische Willkür tun? Entgegen der Intuition müssen wir „diskriminierende“ Faktoren wie Geschlecht oder Herkunft aktiv einbeziehen, statt sie zu ignorieren – um nachher prüfen zu können, ob unsere Algorithmen voreingenommen sind. Nur so können wir uns von alten Mustern lösen, die sich stets noch in Daten widerspiegeln. Anstatt Algorithmen die Geschichte nur schneller wiederholen zu lassen, müssen wir als Menschen entscheiden, welche Daten wir eben nicht benutzen wollen. Und später prüfen, ob sie sich nicht doch eingeschlichen haben.

Manuel Ebert ist Autor der Freitag-Kolumne „Tal der Träumer“ und Data Scientist. Sein Unternehmen berät Firmen im Silicon Valley

06:00 29.12.2016
Geschrieben von

Manuel Ebert

Manuel Ebert ist Autor, Ex-Neurowissenschaftler, und Data Scientist. Seine Consulting-Firma summer.ai berät Firmen in Silicon Valley.
Schreiber 0 Leser 4
Manuel Ebert

Kommentare 14