Jetzt hat es „Künstliche Intelligenz" (KI) auch in die Bundespolitik geschafft. Kürzlich hat der Deutsche Bundestag eine Enquetekommission zum Studium der „Gesellschaftlichen Verantwortung und wirtschaftlichen Potenziale“ der KI eingerichtet. Und die von den Bundesministerien für Inneres und Justiz bestellte Datenethik-Kommission wird sich auch mit KI – oder auch AI, für Artificial Intelligence, genannt – beschäftigen. Denn in der Öffentlichkeit und der Politik herrscht Angst vor „selbstlernenden Algorithmen“, die die Menschheit über kurz oder lang entmachten werden. Zumindest, wenn man einer merkwürdigen Allianz von zwei Gruppen glaubt, die sonst nicht viel miteinander gemein haben: Computerspezialisten, die auch gerne von „Big Data“ reden und die Ignoranz von Schöngeistern beklagen, und Feuilletonisten, die gerne betonen, nichts von Computern zu verstehen, aber umso mehr Ängste schüren. Beide Gruppen haben unrecht: Sowohl Entwickler der KI als auch KI-Kritiker übertreiben bei ihren Thesen, was KI alles leisten kann und wonach sie undurchschaubar, ja autonom werden wird.
Dass Algorithmen sehr nützlich sein können, wissen wir schon aus einer Zeit, in der es noch keine Computer und Big Data gab. Schulnoten etwa werden mit Hilfe eines sehr einfachen Algorithmus (nämlich Mittelwertbildung) zu einem Wert ("Numerus Clausus") zusammengezogen, der den Zugang zum Studium regelt. Und die Punkte in Flensburg, die zu einem Fahrverbot führen, folgen einem Algorithmus (aufaddieren). Diese Algorithmen sind allgemein akzeptiert, da sie – bei allem Streit im Detail – als allgemein nützlich angesehen werden und völlig transparent sind. Deswegen erfordert eine freiheitliche Demokratie, dass alle Vorschriften (das sind auch Algorithmen, nämlich Entscheidungs-Regeln), die in öffentlichen Verwaltungen eingesetzt werden, transparent sind und es einen Rechtsweg gibt, um ihre Einhaltung zu prüfen und ggf. durchzusetzen. Was auch immer noch an digitalen Algorithmen kommen wird, die unser Leben steuern, etwa im Bereich der Schulen und Hochschulen im Zuge sogenannter „Learning Analytics“, ist Transparenz das A und O für Akzeptanz.
Zunächst muss man festhalten, dass KI nur in bestimmten – wenn auch wichtigen – Bereichen allen bisherigen Verfahren für statistische Analysen, um die es dabei nämlich geht, überlegen ist: Bild- und Spracherkennung. Das ist auch plausibel, da Bilder und Sprache (zumindest kurzfristig) keine dynamischen Systeme sind, die auf Anreize und ihre Umwelt reagieren, sondern zumindest statisch genug sind, dass man ein Computerprogramm, das Bild und Sprache erkennen soll, immer mehr verfeinern kann, wenn man es mit immer mehr Daten über Bilder und Sprache füttert. Die KI-Entwickler sprechen dann von „selbstlernenden“ Systemen, in Wahrheit werden aber von Menschenhand immer neue Daten hinzugefügt, und wie bei jeder statistischen Analyse werden die Ergebnisse besser, wenn ihr mehr Daten – also hier Fotos und Texte – zugrunde liegen. Von „Selbstlernen“ kann keine Rede sein, denn der Computercode verändert sich nicht von selbst. Alles was sich ändert sind die „Gewichte“, mit denen einzelne Merkmale der Fotos und von Sprache bei deren Computerauswertung berücksichtigt werden. Das ist nicht geheimnisvoll, sondern bei jeder statistischen Analyse der Fall. Die Statistiker sind aber nie auf die Idee gekommen, von einem selbstlernenden System zu sprechen. Und dies auch aus einem guten Grund.
Grenzen im sozialen Alltag
Denn wie jede statistische Analyse stößt KI schnell an ihre Grenzen, wenn ein System sich verändert – insbesondere wenn auch sogenannte Rückkopplungen eine Rolle spielen. Deswegen gibt es noch keine einsatzbereite KI für selbstfahrende Autos. Aber die Einschätzung der Reaktion eines anderen, potentiell menschlichen Fahrers, durch KI ist noch einfach im Vergleich zu den Rückkopplungen, die es im sozialen Alltag und im Wirtschaftsleben gibt. Hier sind einfache und robuste statistische Verfahren gefragt, die auch nicht jeden Fehler in den Daten überinterpretieren. Deswegen wird modernste KI – in Form von beispielsweise „neuronalen Netzen“ – für die Berechnung des SCHUFA-Indexes, der jedem von uns einen Wert über unsere Kreditwürdigkeit zuweist, nicht eingesetzt – und es ist auch unwahrscheinlich, dass das jemals der Fall sein wird. Denn KI bringt nicht mehr als eine konventionelle statistische Analyse, bei der einfach berechnet wird, von welchen Merkmalen das Risiko für Kredit-Ausfall abhängt (etwa Alter und das Abbezahlen eines laufenden Kredits).
Nun kann man aber – zu Recht – argumentieren, dass etliche der heutzutage eingesetzten Algorithmen, auch wenn sie keineswegs „selbstlernend“ sind, bereits geheimnisvoll genug seien, um sie nur schwer verstehen zu können, und uns dadurch Angst machen. Das gilt beispielsweise auch für den SCHUFA-Index: Da das Kredit-Ausfallrisiko nicht mit einfachen Tabellen ausgerechnet wird (was durchaus möglich wäre), sondern in verfeinerter Form mit sogenannten „logistische Regressionen“, sind die Berechnungen für Laien unverständlich und selbst für Fachleute – je nach Art und Weise der Ergebnisdarstellung – nicht immer intuitiv zu verstehen. Trotzdem ist es keineswegs so, dass wir deswegen diesen Verfahren, die eine Art Black Box darstellen, hilflos ausgeliefert wären, weil sie unverständlich wären und immer unverständlicher werden könnten. Denn auch Laien können das machen, was konventionelle Statistiker und KI-Spezialisten machen, um die Plausibilität ihrer Berechnungen zu prüfen: Sie schauen sich Beispielfälle an, um zu sehen, was ihr Computercode „voraussagt“. Wenn man eine ganze Reihe von systematisch ausgewählten Beispielen ausrechnet, weiß man, was ein „Algorithmus“ tatsächlich macht. Etwa, ob er bei der Beurteilung der Kreditwürdigkeit Bewohner in bestimmten Gegenden benachteiligen, obwohl die Gegend gar nicht in den Algorithmus eingeht, aber sich dort Nachbarn mit hohen Kredit-Ausfallrisiken ballen.
Anhand von systematischen Tests die Qualität eines Produktes herauszufinden ist im Bereich mechanischer Geräte ganz normal. Denn auch komplexe mechanische Geräte sind nicht bis in jede Einzelheit zu verstehen – für Laien schon gar nicht, aber auch für die Entwicklungsingenieure nicht. Deswegen werden zum Beispiel neu entwickelte Autos lange getestet, bevor sie in den Verkauf gehen. Niemand käme aber deswegen auf die Idee einem Auto über den menschlichen Verstand hinausgehende Eigenschaften zuzuschreiben, manche Autofahrer reden allenfalls mit ihrem Navi.
Man muss nicht jedes Detail kennen
Die Zuverlässigkeit eines bestimmten Verfahrens anhand von Tests abzuschätzen ist auch – der Name verrät es bereits – die Grundlage für die Stiftung Warentest. Um die Qualität vieler Geräte und deren Software beurteilen zu können, reicht es nicht, die Einzelbestandteile und den Bauplan zu kennen (der ja obendrein oft auch ein Geschäftsgeheimnis ist). Stattdessen testet man, wie das Produkt sich im Alltag unter Belastung verhält. Das kann man mit jedem Algorithmus ebenso machen.
Dass es Algorithmen gibt, deren Wirkungen schwer für alle Eventualfälle zu testen sind, etwa die Computerprogramme, die Finanzprodukte an- und verkaufen, ist auch richtig. Aber hier ist nicht der Computer-Algorithmus das Problem, sondern das Finanzsystem. Es ist von vielen Rückkopplungen gekennzeichnet und nicht nur für digitale Algorithmen, sondern auch von Menschen nur schwer zu verstehen. Börsenkräche gab es schon, bevor es Computer gab.
Gegen die Sorge vor dem nicht gänzlich Bekannten hilft auch ein Blick zu Stanislaw Lem. Der argumentierte in seiner „Summa Techologiae“, dass jeder Mensch ein hervorragendes Beispiel eines Apparates ist, dessen wir uns bedienen können, ohne seinen Algorithmus im Detail zu kennen.
Als Bürgerinnen und Bürger haben wir zu Recht ein Interesse daran zu wissen, wie Algorithmen, die für unser Leben eine wesentliche Rolle spielen, etwa der SCHUFA-Index, funktionieren. Auch wie ein von einem Algorithmus gesteuertes selbstfahrendes Auto funktioniert, müssen wir wissen. Dieses Wissen zu erlangen ist sehr einfach, der Gesetzgeber muss es nur wollen und per Gesetz und Verordnungen sicherstellen, dass alle relevanten Algorithmen so getestet werden, wie das beim selbstfahrenden Auto bereits jetzt der Fall ist. Und die Ergebnisse dieser Test müssen transparent gemacht werden. Das ist zum Beispiel beim SCHUFA-Index recht einfach zu bewerkstelligen, da man ihn ganz leicht anhand von Beispielfällen berechnen kann. Der Gesetzgeber muss eine solche „Transparenz-Schnittstelle“ nur wollen. Sie einzurichten ist keine Hexerei, sondern bedarf eines überschaubaren (Forschungs-)Aufwands.
Die Diskussion um die SCHUFA macht deutlich, dass Kreditwürdigkeits-Algorithmen erste Kandidaten für volle Transparenz sind. Die Systeme, die die Personalauswahl und Beförderungen steuern ("People Analytics"), sind weitere heiße Kandidaten für gesetzlich verordnetes Testen. Aber ob zum Beispiel auch die Algorithmen, die hinter Partnervermittlungs-Agenturen wie Parship stehen, so relevant sind, dass gesetzlich sichergestellte Transparenz notwendig ist, ist sicherlich diskussionswürdig.
Was ist Ihre Meinung?
Kommentare einblendenDiskutieren Sie mit.