Mirjam Kay Kruecken
Ausgabe 4616 | 23.11.2016 | 06:00 3

Nichts zu verbergen

Big Data Immer mehr Polizeibehörden erstellen mit Algorithmen Kriminalitätsprognosen

In der Kurzgeschichte Minority Report glaubt der Polizist John Anderton an die Unfehlbarkeit des Prognoseverfahrens Precognition – bis er plötzlich selbst als zukünftiger Täter ermittelt wird. Die Zukunftsprognosen treffen mutierte Menschen, die Precogs heißen. Sie haben Visionen von Morden, die noch nicht begangen wurden. Heutzutage wirkt diese Science-Fiction-Story von 1956 ebenso altmodisch wie Steven Spielbergs gleichnamiger Film aus dem Jahr 2002. Altmodisch, weil die Kriminalitätsprognosen in Minority Report immer noch von Menschen getroffen werden.

Um neue Herausforderungen der Ermittlungsarbeit wird es auch bei der Herbsttagung des BKA gehen, die in dieser Woche stattfindet. Schon seit einiger Zeit zeichnet sich hierzulande der Trend zum Predictive Policing (vorausschauende Polizeiarbeit) ab. Zum Einsatz kommen dabei Software-Programme, die Verbrechen in der Zukunft voraussagen. Die Münchner Kriminalpolizei nutzt seit zwei Jahren die Prognosesoftware Precobs (Pre-Crime Observation System), die berechnen soll, wann und wo ein Verbrechen begangen wird. Nun soll Precobs in ganz Bayern und auch in Baden-Württemberg genutzt werden. Die Hamburger Polizei arbeitet an einem eigenen Programm, vorher ließ sie sich von Mitarbeitern des Bayerischen Landeskriminalamts und der Polizei Chicago über Software zur Kriminalitätsprognose informieren. Auch die Berliner Polizei setzt auf die Marke Eigenbau: KrimPro, kurz für Kriminalitätsprognose, wird seit Juli getestet.

Predictive Policing

Als sich Bundesinnenminister Thomas de Maizière (CDU) im August die Precobs-Software vorführen ließ, war er so begeistert, dass er statt eines täglich aktualisierten Programms am liebsten eine 24-Stunden-Live-Prognose gehabt hätte. Precobs wird am Oberhausener Institut für musterbasierte Prognosetechnik entwickelt und global vermarktet. Mit ihren farblich markierten Bereichen sieht die Anwendung ein bisschen aus wie Google Maps. Es wird ausschließlich mit polizeilichen Daten gearbeitet, wie das Institut stets betont. Die Software soll auf der Basis von Erfahrungswerten potenziell gefährdete Gegenden ermitteln, damit die Polizei vor Ort sein kann, bevor ein Verbrechen geschieht, bei Einbruchsserien kann das nützlich sein. Die Software soll ohne personenbezogene Daten auskommen. Allerdings funktionieren Kriminalitätsprognosen dann am besten, wenn eine sehr große Datenmenge zur Verfügung steht, zum Beispiel durch web mining, die systematische Suche und Verarbeitung von Daten aus dem Internet. Im August beschlossen das Oberhausener Institut und die Schweizer IT-Firma Futurelab eine Verbindung ihrer Softwares Precobs und Smartpolice. Letztere ist ein Medienarchiv, das Precobs optimiert, zum Beispiel indem es die Fahndung der Polizei mit Fotos und Videos aus dem Internet unterstützt.

Precobs deckt Delikte ab, die der Massenkriminalität zugeordnet werden: Einbrüche, Diebstahl und Raub und neuerdings auch Sachbeschädigung durch Graffiti. Am wichtigsten seien „Tatort, Tatzeit, Begehungsweise und gegebenenfalls Art der Beute“, sagt Dr. Thomas Schweer vom Oberhausener Institut über die Informationen, mit denen Precobs arbeitet. Allerdings spielten auch „soziografische und sozioökonomische Faktoren“ eine Rolle. Anders gesagt: Es gibt Viertel mit niedrigem und hohem kriminellem Potenzial, gute und schlechte Gegenden. Datenschützer kritisieren, dass die Software trotz Anonymisierung Menschen aus bestimmten Wohngebieten und gesellschaftlichen Schichten stigmatisiert.

In den USA ist Predictive Policing weit verbreitet; auch Social-Media-Daten werden dafür verwendet. In Deutschland sind die Datenschutzgesetze strenger, trotzdem wird mit entsprechender Software aufgerüstet. Das BKA nutzt zum Beispiel das Programm InfoSphere Global Name Analytics der Firma IBM, das unter anderem „die kulturelle Klassifizierung eines Personennamens“ ermöglicht.

Das in Nordrhein-Westfalen entwickelte Predictive-Policing-Programm Skala (System zur Kriminalitätsanalyse und Lageantizipation) geht noch einen Schritt weiter: In einem Positionspapier schreibt Landeskriminaldirektor Dieter Schürmann, dass auch „soziostrukturelle“ und „sozioökonomische“ Daten in das System aufgenommen werden sollen. Zu Soziostruktur und den sozialen Merkmalen eines Menschen zählen unter anderem Nationalität, Migrationshintergrund, Bildung, Religionszugehörigkeit, Familienstand und der Beruf. Solche Informationen könnten in Kombination mit einem Predictive-Policing-Programm zu verstärktem Racial Profiling führen, der systematischen Diskriminierung bestimmter Ethnien. Denn eine Predictive-Policing-Software ist nicht neutral, sondern ebenso voreingenommen und fehlbar wie die Personen, die den Algorithmus programmiert haben.

„Es ist grundsätzlich zu begrüßen, wenn Polizeiarbeit auch auf fortschrittliche Instrumente zur Kriminalitätsbekämpfung zurückgreifen kann“, sagt Konstantin von Notz, netzpolitischer Sprecher der Grünen, dem Freitag. Bei Predictive Policing sei jedoch eine gesunde Portion Skepsis angebracht, „denn das Spektrum der verschiedenen Datenerhebungsmethoden ist äußerst weit“. An der bloßen Zusammenführung und zielgerichteten Auswertung polizeilicher Erkenntnisse gebe es nichts auszusetzen, vor einer Durchkämmung sozialer Netzwerke im Stile einer Rasterfahndung und einer ungeregelten Auswertung von Big-Data-Strömen sei zu warnen. „Der Nutzen für die öffentliche Sicherheit muss hier sehr sorgfältig mit dem Eingriff in Persönlichkeitsrechte abgewogen werden.“

Laut Bundesdatenschutzgesetz dürfen personenbezogene Daten ohne Mitwirkung der Betroffenen erhoben werden, „wenn eine Rechtsvorschrift dies vorsieht oder zwingend voraussetzt“. Auch wenn es „unverhältnismäßig“ aufwendig sein sollte, die Daten direkt bei der betroffenen Person zu erfragen, ist deren Erhebung und Nutzung zulässig. Das Gesetz lässt Behörden, die Informationen aus sozialen Netzwerken fischen oder Charakterprofile von Personen erstellen wollen, viel Spielraum.

Im Stil der Rasterfahndung

Als das Ausmaß der Überwachung durch die NSA öffentlich gemacht wurde, waren die Reaktionen oft überraschend gleichmütig. Überwachung sei ihnen egal, man selbst sei für die NSA uninteressant, weil man „nichts zu verbergen“ habe, sagten viele. Edward Snowden brachte in einem Reddit-Kommentar die Problematik dieser Haltung auf den Punkt: „Zu behaupten, das Recht auf Privatsphäre sei nicht wichtig, weil man nichts zu verbergen hat, ist nichts anderes, als zu sagen, das Recht auf freie Meinungsäußerung sei nicht wichtig, weil man nichts zu sagen hat.“ Demokratie muss auch im digitalen Raum wirken, dafür setzen sich Datenschützer und Whistleblower ein. Hierzulande fehlte lange eine Organisation, die sich eigens mit den Auswirkungen algorithmischer Entscheidungsfindungsprozesse befasste. Im Mai gründete sich Algorithm Watch. Die Initiative zielt auf die Sichtbarmachung und die demokratische Regulierung solcher Prozesse ab. Die Ergebnisse von Datenanalysen haben Einfluss auf das Leben, zum Beispiel wenn man trotz Bonität bei der Bank keinen Kredit bekommt. Betroffene wissen oft nicht, wie das Ergebnis zustande gekommen ist. Oder wer die Verantwortung dafür trägt. Und das ist mit Sicherheit kein Computer.

Dieser Beitrag erschien in Ausgabe 46/16.

Kommentare (3)

na64 23.11.2016 | 09:07

Wir bewegen uns hier im Digitalen "FREiRaum" auf ein Feld das die US Militär Regierung für Ihr Eigentum hält und uns dann auch so behandelt. Wir sind nur kleine Manipulationsbausteine für das festigen und weiter ausbreiten der US Macht als Supermacht für die Welt, wie Sie, die USA sich das so vorstellen. Wir sind der Bequemlichkeit verfallen, dass das Netz der Dinge alles einfacher für uns gestalten wird. Was nicht stimmt. Einfacher wird die Überwachung und das belohnen oder ausgrenzen von Personen, bzw. Interessengruppierungen in dem die NSA Fakebotschaften verbreitet. Halbwahrheiten sind ein gefährliches Werkzeug für Meinungsmanipulationen. Ich habe es bis heute nicht verstanden, warum wir dieses Spiel so in unsererm Gleichgültigkeitsmodus mitmachen!?. Ist diese Gleichgültigkeit bei uns gewollte Manipulation!?. Wenn Ja, dann machen die Bots und Menschen bei der NSA verdammt gute Arbeit. Wir brauchen bald keine Bewerbungen mehr schreiben, da die Firmen sich über Daten, die wir freiwillig ins Netz stellen, so Ihre Mitarbeiter nach gewünschten Profilen, wie eine bedingungslose Loyalität ohne kritisches Hinterfragen aussuchen werden. Das passt dann auch zu unserer Auffassung von Arbeitskultur und Arbeitsrecht, dass immer noch nach Gesetzen von 1933 als Vorlage für unsere Haltung entspricht. Gleichgültigkeit macht Frei.

apatit 23.11.2016 | 12:02

Wir sind auf dem “besten“ Weg zum totalen Überwachungsstaat! Mielke lacht sich in der Gruft nochmal TOT! Natürlich – alles zu unsere Sicherheit und wir werden noch weitere Argumente geliefert bekommen, wie wichtig die Bespitzelei ist! Stichwort: NSA – immer die Guten, die wissen mit Bestimmtheit wer Apatit oder NA 64 ist … und schon da beginnt Manipulation, wenn man sich sogar nicht mehr unter Pseudonym getraut, die Dinge beim Namen zu nennen und Sachverhalte “umschreibt“! Und das dümmste Argument ist, was regt ihr euch so auf … wer “ Nichts zu verbergen“ hat... der braucht doch keine Angst zu haben ...! Wenn die Leute wüssten was alles möglich ist ... der Kühlschrank, der mitdenkt ... ja - der intelligente Kühlschrank denkt für Sie mit... ach wie schön! Und das ist nur der Kühlschrank!!!

na64 23.11.2016 | 15:11

Stimmt die NSA wissen wer ich bin. Ich wurde auch erst vor drei Wochen gehackt. Was mit meinen Daten passiert kann ich nicht nachvollziehen, da ich nichts festellen konnte ausser Störungen biem bedienen der Tasatur und einzig meine Bankkarte musste ich erneuern. Wie die das gemacht haben!?. Magnetische Schwingungen, Frequenzen, keine Ahnung und es funktioniert auch wieder alles ganz normal.

Das mit der Berufswahl wird sich auch bald erledigt haben. Die Firmen greifen einfach auf die Ideen, die in der Digitalen Welt herumschwirren zu und bedienen so unsere Interessen, wie auch unseren Kühlschrank, da Sie eh unsere Essgewohnheiten kennen. Die Filterblase wird ja einfach immer größer in der man sich bewegt und solange die schön bunt ist wächst die Gleichgültigkeit (Ignoranz) an anderen Inspirationen. Folge ich nicht dem Leben in meiner Filterblase, dann gibt es nichts zu essen im Kühlschrank. Immer schön artig sein.