Leo Hickman
04.07.2013 | 13:15 1

Die heimlichen Herrscher

Big Data Algorithmen bestimmen unseren Alltag: Beim surfen im Netz, beim Einkaufen, ja sogar in der Justiz. Ab wann wird daraus ein gefährliches Überwachungsinstrument?

Die heimlichen Herrscher

Auch Aktienkurse werden längst nicht mehr nur von Menschen beeinflusst

Foto: ChinaFotoPress/ AFP/ Getty Images

Am 4. August 2005 verhaftete die Polizei der Stadt Memphis im US-Bundesstaat Tennessee binnen dreier Stunden so viele Leute, dass irgendwann die Fahrzeuge zum Transport der Verhafteten fehlten. Drei Tage später waren in der ganzen Stadt 1.200 Menschen festgenommen worden – ein Rekord. Operation "Blue Crush" wurde als immenser Erfolg gefeiert.

Larry Godwin, der damalige neue Polizeidirektor vom Memphis, weitete das Programm rasch aus und die Verbrechensrate sank bis zum Jahr 2011 um 24 Prozent. Als Anfang diesen Jahres bekannt wurde, dass das Budget von "Blue Crush" gekürzt werden sollte, folgte ein öffentlicher Aufschrei. Die Polizeiarbeit per „Crush“ gilt inzwischen als derart erfolgreich, dass sie auf der ganzen Welt Nachahmung findet.

Crush steht für "Criminal Reduction Utilising Statistical History". Das meint soviel wie „vorhersagende Polizeiarbeit“. Oder, etwas akkurater: Polizisten, deren Arbeit sich nach den Berechnungen von Algorithmen richtet. Entwickelt wurde dies Technik von einem aus Kriminologen und Datenwissenschaftlern bestehenden Team der Universität Memphis und mit Analysesoftware der Firma IBM. Einfach ausgedrückt kombinierten die Wissenschaftler Statistiken über das Vorkommen von Kriminalität in der Stadt über einen bestimmten Zeitraum mit weiteren Informationen - etwa über die Standorte von Sozialwohnungen oder die Außentemperaturen. Dann instruierten sie Algorithmen, innerhalb dieser Daten nach Korrelationen zu suchen. So wurden Kriminalitäts-“Hotspots“ identifiziert, in denen dann gezielt Polizeistreifen durchgeführt wurden.

Wie in "Minority Report"

„Es bringt die richtigen Leute am richtigenTag und zur richtigen Zeit an die richtigen Orte“, sagte Richard Janikowski, Privatdozent an der Fakultät für Kriminologie an der Uni Memphis, als das Programm an den Start ging. Doch nicht jedem ist wohl bei dem Gedanken an die Methode. Einige Kritiker sprechen von Polizeiarbeit à la „Minority Report“. In dem Science Fiction-Film arbeiten Hellseher in sogenannten PreCrime-Abteilungen daran, Verbrechen zu verhindern, bevor sie begangen werden.

Die Verwendung in der Polizeiarbeit ist nur ein Beispiel für den zunehmenden Einfluss von Algorithmen auf unser Leben. Mit ihrem immer breiteren Einsatz dehnt sich aber auch die Debatte darüber aus – und darüber, wer, wenn überhaupt, ihre Verwendung überwacht. Die ständig neuen Enthüllungen darüber, wie der US-Geheimdienst NSA mit Hilfe von Algorithmen die kolossalen Datenmengen analysiert hat, die heimlich im Schleppnetzverfahren aus internationalen Telekommunikationsdaten abgefangen wurden, haben die Bedenken vergrößert.

"Bei Datensätzen von der Größe, wie die NSA sie sammelt, können bestimmte Aufgaben nur per Algorithmus bewältigt werden“, erklärt Guardian-Redakteur James Ball, der bei der Zeitung über das Thema berichtet. "Das Problem besteht in der Festlegung der Anweisungen. Die kann nie perfekt gelingen. Wenn man etwa nach Terroristen sucht, sucht man etwas sehr Seltenes. Setzt man zu enge Kriterien, werden einem wahrscheinlich viele, wenn nicht die meisten potentiellen Terrorverdächtigen durchs Netzt gehen. Fasst man sie zu weit, geraten viele vollkommen Unschuldige ins Visier. Die sind dann weiterer Überwachung oder sogar offiziellen Ermittlungen ausgesetzt. Wir wissen nicht genau, wie NSA oder GCHQ Algorithmen einsetzen. Dass sie es tun wissen wir aber.“

Besser bewacht als das Cola-Rezept

Von Dating-Websites bis hin zu den Börsenparketts der Finanzwelt, im Online-Handel und bei Internetsuchen (der Google-Suchalgorithmus ist inzwischen ein besser bewachtes Geschäftsgeheimnis als das Rezept für Coca Cola)– Algorithmen bestimmen immer mehr unsere Zukunft: „Der Algorithmus ist der Gott aus der Maschine, die überall dahinter steht – im Guten, wie im Schlechten“, sagt Ball.

Aber was ist ein Algorithmus überhaupt? Panos Parpas ist am Londoner Imperial College Dozent für Quantitative Analyse und Entscheidungswissenschaft. Wann immer wir einen Computer benützten, machten wir auch von Algorithmen Gebrauch, sagt er. „Es gibt viele verschiedene Typen von Algorithmen. Einfach erklärt, folgen sie aber alle einer Reihe von Instruktionen um zur Lösung eines Problems zu gelangen. Ein bisschen, wie ein Rezept eine Hilfe zum Kuchenbacken ist.“

Ein neues Phänomen seien Algorithmen keinesfalls, sagt Parpas: „Sie werden seit Jahrzehnten angewandt. Das aktuelle Interesse geht zurück auf die riesigen Datenmengen, die inzwischen generiert werden. Die müssen verarbeitet und verstanden werden. Algorithmen sind heute Bestandteil unseres Lebens. Einerseits sind sie gut, weil sie uns freie Zeit verschaffen und für uns banale Prozesse übernehmen. Bei den Fragen, die derzeit aufkommen, geht es weniger um die Algorithmen per se als darum, wie die Gesellschaft in Hinblick auf Datennutzung und Datenschutz aufgestellt ist. Und darum, wie Modelle herangezogen werden, um Aussagen über die Zukunft zu treffen. Derzeit besteht eine merkwürdige Ehe zwischen Daten und Algorithmen. Mit der Weiterentwicklung der Technik werden auch Fehler geschehen. Dennoch sollte nicht vergessen werden, dass Algorithmen bloß Instrumente sind. Wir sollten nicht unsere Instrumente verantwortlich machen.“

Wo liegt die Grenze?

„Die mit Abstand kompliziertesten Algorithmen werden in der Wissenschaft angewandt. Etwa um neue Medikamente zu entwickeln oder Klimamodelle zu erstellen“, sagt Parpas weiter. " Das geschieht aber in einer kontrollierten Umgebung und mit sauberen Daten. Da lässt sich einfach feststellen, ob ein Algorithmus fehlerhaft ist. Schwierig wird es, wenn Algorithmen in den Sozialwissenschaften oder im Finanzhandel gebraucht werden. Dort weiß man weniger genau über das Modell und die wahrscheinlichen Ergebnisse Bescheid, der Kontext unterliegt größeren Veränderungen. Wissenschaftler verwenden Jahre darauf, ihren Algorithmus zu prüfen. Einem Trader hingegen stehen dafür nur wenige Tage in einer schwankungsanfälligen Umgebung zur Verfügung.“

Die Vorstellung, dass die globalen Finanzmärkte – und damit unsere Renten, Aktien und Ersparnisse  – größtenteils von Algorithmen abhängen, mag beunruhigend genug sein. Doch die größeren Fragen drehen sich um Datenschutz.Wer kann sich wie Zugang zu „unseren“ Daten verschaffen und diese benutzen?

Ian Brown vom Cyber Security Centre der Universität Oxford sagt, jeder sollte sich bewusst sein, welche Folgen es haben könnte, wenn kommerzielle Unternehmen oder Regierungen unsere Gewohnheiten per Algorithmus analysieren: „Laut Gesetzeslage in den USA und Großbritannien ist vieles von dem, was in den NSA-Enthüllungen herauskam, legal. Den Leuten ist das nur noch nicht klar. Die große Frage ist die Aufsicht. Denn wir verbringen heute so viel Zeit im Netz, dass wir Data-Mining in großem Umfang möglich machen.“

Algorithmen seien heute darauf programmiert, in Datensätzen „indirekte, nicht offensichtliche“ Korrelationen aufzuspüren. „In den USA zum Beispiel schätzen Gesundheitsversicherungen unter anderem anhand der Länge des Arbeitsweges Versicherungsrisiken ein“, erläutert Brown. „Sie identifizieren Menschen mit geringen Risiken und richten ihre Policen und deren Vermarktung auf sie aus.“ Mit der Zeit vertiefe sich so die soziale Kluft.

Bedenken hegt Brown auch hinsichtlich der Verwendung von Algorithmen in der Polizeiarbeit. In Memphis etwa haben die Crush-Algorithmen Menschen bestimmter Hautfarben mit bestimmten Verbrechen in Verbindung gebracht: „Wenn Mitglieder einer Gruppe überproportional häufig von der Polizei angehalten wird, vergrößern solche Taktiken unter Umständen bloß das Gefühl dieser Gruppe, man habe es auf sie abgesehen.“

Eine ganz neue Gefahr

Viktor Mayer-Schönberger, Professor für Internetgovernance und -Regulierung am Oxford Internet Institute, warnt ebenfalls davor, dass Menschen Kausalitäten verorten könnten, wo Algorithmen Korrelationen innerhalb großer Datenmengen erkennen. Daraus erwachse eine ganz neue Gefahr, schreibt er in dem Buch Big Data: A Revolution That Will Transform How We Live, Work and Think. Es bestünde nämlich „die Möglichkeit, aufgrund von Vorhersagen, die durch die Analyse großer Datensätze getroffen wurden, Menschen zu verurteilen und zu bestrafen – und zwar schon bevor sie etwas getan haben. Damit wird die Vorstellung von Fairness, Gerechtigkeit und des freien Willens negiert. Wir riskieren, zu Opfern einer Diktatur der Daten zu werden, indem wir Informationen und die die Ergebnisse unserer Analysen zu Abgöttern machen und letztendlich falsch nutzen. Bei verantwortungsvollem Umgang ist Big Data ein nützliches Instrument der rationalen Entscheidungsfindung. Handhabt man es unklug, kann es zu einem Instrument der Mächtigen werden.“ Die wiederum könnten es zu repressiven Zwecken nutzen.

Mayer-Schönberger schildert zwei sehr unterschiedliche Alltags-Szenarien für die Verwendung von Algorithmen. Zuerst beschreibt er, wie das Analyseteam der US-Warenhauskette Target nicht nur berechnen kann, ob eine Frau schwanger ist, sondern auch wann sie wahrscheinlich entbinden wird. Dafür werden nur die Informationen über die Einkäufe benötigt, die sie per Kredit- oder Treuekarte oder Gutschein getätigt hat. Der Frau würden dann passend zur jeweiligen Schwangerschaftsphase Angebote zugeschickt.

Harmlos, könnte man nun sagen. Doch was, wenn der Vater einer Teenagertochter Windelgutscheine zugeschickt bekommt, bevor er überhaupt weiß, dass sein Sprössling schwanger ist? So etwas ist bereits vorgekommen.

Das zweite Beispiel deutet auf noch mehr potentielle Dilemmata und Tücken hin: „In über der Hälfte der US-Bundesstaaten beziehen Bewährungskommissionen in ihre Beschlüsse Vorhersagen ein, die auf Datenanalysen beruhen – und entscheiden so darüber, ob ein Häftling freikommt oder nicht. “

Der Autor Christopher Steiner hat ein Buch mit dem Titel Automate This: How Algorithms Came to Rule Our World geschrieben. Darin stellt er die Bandbreite von Gebieten dar, in denen mit Algorithmen Voraussagen über die Zukunft getroffen werden.

Steiner hält den Einfluss der Algorithmen nicht unbedingt für etwas Übles. Allerdings müsse eine Debatte über ihre Allgegenwart und ihren breiten Einsatz geführt werden. "Wir sind bereits auf halben Wege zu einer Welt, in der Algorithmen alles bestimmen. Je größer ihre Macht wird, desto mehr wird der Reichtum sich bei ihnen konzentrieren.“

Dennoch sollten wir ihren Gebrauch begrüßen, wo sie angemessen eingesetzt würden, um uns zu helfen: „Algorithmen im Verkauf machen mir keine Angst“, sagt er. „Ich finde es hilfreich, wenn Amazon mich auf Dinge hinweist, die mir gefallen könnten.“

Die Grenze zwischen „guten“ und „schlechten“ Algorithmen könne mitunter allerdings hauchdünn sein, räumt er ein: „Die NSA-Enthüllungen finde ich nicht besonders erschreckend. Momentan haben sie die Daten ja einfach nur – selbst die besten Datenwissenschaftler hätten Schwierigkeiten zu wissen, was sie mit all diesen Daten anfangen sollten. Wachsam müssen wir hinsichtlich des nächsten Schritts sein – mit einer falschen Vorhersage darüber, was jemand vorhaben könnte, kann ein Leben vermasselt werden.“

 

Übersetzung der gekürzten Fassung: Zilla Hofman

Kommentare (1)

Avatar
Ehemaliger Nutzer 04.07.2013 | 18:07

Bitte weitersagen:

#StopWatchingUs ! Am Samstag, den 27.07. 2013 um 14 Uhr geht´s los. Bundesweite Proteste gegen ‎#Prism und ‎#Tempora!

Es ist an der Zeit, dass wir unseren inneren Aufstand auch äußerlich sichtbar machen. Flächendeckend! Bitte ladet alle eure FreundInnen ein, sagt es weiter und bringt euch in die Orga ein!

++++GRUNDLEGENDE INFO ZUR DEMO++++

Am 27.07.2013 gibt es bundesweite Demonstrationen gegen #Prism und #Tempora. Die Organisation der Demonstrationen läuft dezentral und nach Chaosprinzip. Das heisst am besten schaut jeder selbst ob es in seiner Stadt schon eine Regionalgruppe gibt, bringt sich eint bzw. baut eine auf, falls noch nicht vorhanden.

Genauso läuft dann die Promo für die Demo. Wir sind ALLE dafür verantwortlich, dass die Sache läuft! Wir nutzen dafür ALLE Plattformen, die uns zur Verfügung stehen!

Hinter #StopWatchingUs stehen keine Organisationen sondern einfach Menschen, die die Schnauze voll haben! Du bist eingeladen dabeizusein!

…und am 31.08. gehts dann mit #IDP13 weiter!

http://www.alex11.org/2013/07/stopwatchingus-und-idp13-auf-die-strase-gegen-onlineuberwachung/