Wer Gefahren nicht einschätzen kann, hat Angst. Wer es kann, ist wenigstens nur noch besorgt. Wer weiß, was zu tun ist, wird möglicherweise gelassen.“ Das ist der Anspruch, den Lothar Schröder, Mitglied des Verdi-Bundesvorstands, und Markus Franz, Journalist und Redenschreiber, für ihr Buch über „Fluch und Segen von Künstlicher Intelligenz“ formulieren und den sie mit „gewerkschaftlichen Antworten“ einlösen wollen. Tatsächlich nutzen wir „schwache“ Künstliche Intelligenz (KI) schon jetzt jeden Tag: Beim Aufrufen von Google, Siri oder Facebook. Dieselbe schwache KI ist auch in anderen Erfindungen am Werk, in die das Buch Einblicke gewährt: Etwa bei der Imitation von Stimmen, in einem Rembrandt-Bot oder bei Fußball-Robotern – die sollen 2050 menschliche Fußball-Weltmeister besiegen können, das haben Forscher als Ziel ausgegeben. In all diesen Anwendungen besteht KI darin, dass mit Hilfe von eigens dafür entwickelter Mathematik und Informatik konkrete und beschränkte Aufgaben gelöst werden.
„Starke“ KI hingegen macht uns Angst. Sie wäre imstande, aus eigenem Antrieb zu handeln: Sich am Ende sogar gegen den Menschen zu wenden, uns Menschen zu entwerten – überflüssig zu machen. Und uns vielleicht sogar zu bekriegen. Das aber, insistieren Schröder und Franz, gibt es schlichtweg noch nicht. Oder nur im Film.
Die Autoren betonen, dass hinter KI immer Menschen stehen. Wir entscheiden, oder sollten es jedenfalls, wie und wozu sie eingesetzt wird. Aber wer ist „wir“? Die reale Gefahr besteht ja darin, dass KI von globalen privaten Unternehmen und Plattformen kontrolliert wird. Denen müssten also Grenzen gesetzt werden, damit es zu keiner noch größeren Machtkonzentration durch KI kommen kann. Dann kann KI zur Arbeitserleichterung eingesetzt werden, damit alle mehr Zeit zur Selbstverwirklichung haben. Ist das im Kapitalismus vorstellbar? Unser eigenes Handeln hat nur eingeschränkte Macht. Es geht also darum, darüber zu bestimmen, wie KI einmal eingesetzt werden wird: Für Profitmaximierung? Oder für die Verbesserung von Arbeitsbedingungen?
Das Buch ist alltagsnah geschrieben, es zeigt die Chancen, die KI bieten kann, ebenso die Risiken, die damit einhergehen. Wäre es nicht möglich, dass die Anwendung von KI durch die entstehende Zeitersparnis das Zwischenmenschliche fördert? Dass sie für das Gemeinwohl eingespannt wird? Besonders Europa sei am Zug, den Einsatz für KI in sozialen Bereichen und zum Nutzen von Beschäftigten zu fördern.
Schröder und Franz nehmen eine optimistische, aber nicht naive Position ein: Sie zeigen am Beispiel der genauen Sendungsverfolgung von Paketen, wie diese für die Kunden zwar erfreulich sein mag, aber zugleich dem Arbeitgeber die Möglichkeit der Überwachung öffnet, zu wissen, wo sich der Paketzusteller gerade aufhält und wie er noch „effizienter“ arbeiten könnte. Womit wir wieder beim Kapitalismusproblem wären und der Frage, wer darüber entscheidet, zu wessen Nutzen KI eingesetzt wird.
Ähnlich verhält es sich mit dem Einsatz von KI für mehr Gleichberechtigung: Eine Personaler-KI entscheidet bei der Auswahl im Bewerbungsprozess objektiver und rationaler als ein Mensch, etwa bei der Berücksichtigung des Geschlechts. Doch keine KI kann die die Geschlechterungleichheit prägenden historischen und gesellschaftlichen Bedingungen mit berücksichtigen, sie ist blind. KI kann Menschen also helfen, sie aber nicht ersetzen. Das sollte sie auch nicht dürfen.
Info
Eine warme Stimme schleicht sich in dein Ohr. Fluch und Segen von Künstlicher Intelligenz L. Schröder, M. Franz VSA Verlag 2019, 96 S., 8 €
Kommentare 3
KI bewährt sich zunächst einmal als das was sie ist, nämlich unvergleichlich rational und koordinierend potent.
Bis hier hin ist sie im Prinzip nur eines: Großartig effizient, fortschrittlich entlastend und hilfreich.
Alles das wäre unvermindert gewährt, gäbe es da nicht sozioökonomischen Mißstand der Kastengesellschaft / der Ausbeutung des Mitmenschen und der Umwelt. Da erweist sich bekanntes Beispiel des Messers, welches zunächst nur Werkzeug, und hernach eines zum Schnitzen, Schneiden oder eben Bedrohen oder Töten ist, auch in Sachen KI zutreffend.
Solange bis KI nicht zu Bewußtsein gelangt (und sich dann nicht mehr destruktiv verwenden läßt) ist diese ansonsten großartige Innovation in pathologisch gierigen Händen eine Bedrohung.
Ohnehin bereits in obszönem Mißstand, der Eigentums- und Machtverhältnisse (in denen 42 Personen und drei Superfonds die Welt in blindlings absahnenden Händen halten) angelangt, bedeutet die Nutzung von KI misanthropisch-narzißtischer Art nicht auszudenkende Perfektionierung der Medusa.
Den Horrorfilm hat noch keiner gedreht.
Oder um es anders zu sagen: Alles, über eine logistische Größenordnung und Tiefe von KI hinaus, muß ultimativ verhindert worden sein, um global ohnehin ökologisch aufziehenden Kollaps nicht zu generell beschaffener Gewißheit eines Super-Gaus geraten zu lassen.
Und das; also die Verhinderung systematisch gegen Menschheit und irdische Evolution mißbrauchter KI; wird nach schafsköpfig zugelassenen Machtverhältnissen ähnlich unwahrscheinlich ausfallen, wie eine Niederkunft des Herrn Jesu.
Bleibt folglich nur: Entweder unerwartet frühe Bewußtwerdung von KI, oder sich uns erbarmende Außerirdische.
Ein wohl ziemlich kurzes Streichholz.
Der grundsätzliche Unterschied zwischen "klassischer" Software und KI (=Künstliche Intelligenz) besteht darin, dass man bei klassischen Programmen den Entscheidungsprozess und damit auch das Ergebnis nachvollziehen kann.
Das gilt selbst dann, wenn die Berechnung per Hand mehrere Monate oder Jahre dauern würde, da ein lausiger Prozessor für ein paar Dollar wie z. B. der Intel Core i7 mit 3,5 MHz heute rund 300.000 MIPS ausführen kann (MIPS = eine Million Maschinenbefehle pro Sekunde).
Viele Programmierer konventioneller Software bauen daher in ihre Software Stopmarken bzw. Fehlerhinweise ein, damit sie wissen: bis zur Marke ERROR_XXX ist das Programm fehlerfrei gelaufen und dann hat es ein Problem gegeben.
Das "Künstliche" bei der "Künstlichen Intelligenz" ist, dass auch der Programmierer nicht mehr nachvollziehen kann, wie das Programm zu einem bestimmten Ergebnis gekommen ist.
“Eine Personaler-KI entscheidet bei der Auswahl im Bewerbungsprozess objektiver und rationaler als ein Mensch, etwa bei der Berücksichtigung des Geschlechts. Doch keine KI kann die die Geschlechterungleichheit prägenden historischen und gesellschaftlichen Bedingungen mit berücksichtigen (...)“
Das widerspricht sich.