In der Kurzgeschichte Minority Report glaubt der Polizist John Anderton an die Unfehlbarkeit des Prognoseverfahrens Precognition – bis er plötzlich selbst als zukünftiger Täter ermittelt wird. Die Zukunftsprognosen treffen mutierte Menschen, die Precogs heißen. Sie haben Visionen von Morden, die noch nicht begangen wurden. Heutzutage wirkt diese Science-Fiction-Story von 1956 ebenso altmodisch wie Steven Spielbergs gleichnamiger Film aus dem Jahr 2002. Altmodisch, weil die Kriminalitätsprognosen in Minority Report immer noch von Menschen getroffen werden.
Um neue Herausforderungen der Ermittlungsarbeit wird es auch bei der Herbsttagung des BKA gehen, die in dieser Woche stattfindet. Schon seit einiger Zeit zeichnet sich hierzulande der Trend zum Predictive Policing (vorausschauende Polizeiarbeit) ab. Zum Einsatz kommen dabei Software-Programme, die Verbrechen in der Zukunft voraussagen. Die Münchner Kriminalpolizei nutzt seit zwei Jahren die Prognosesoftware Precobs (Pre-Crime Observation System), die berechnen soll, wann und wo ein Verbrechen begangen wird. Nun soll Precobs in ganz Bayern und auch in Baden-Württemberg genutzt werden. Die Hamburger Polizei arbeitet an einem eigenen Programm, vorher ließ sie sich von Mitarbeitern des Bayerischen Landeskriminalamts und der Polizei Chicago über Software zur Kriminalitätsprognose informieren. Auch die Berliner Polizei setzt auf die Marke Eigenbau: KrimPro, kurz für Kriminalitätsprognose, wird seit Juli getestet.
Predictive Policing
Als sich Bundesinnenminister Thomas de Maizière (CDU) im August die Precobs-Software vorführen ließ, war er so begeistert, dass er statt eines täglich aktualisierten Programms am liebsten eine 24-Stunden-Live-Prognose gehabt hätte. Precobs wird am Oberhausener Institut für musterbasierte Prognosetechnik entwickelt und global vermarktet. Mit ihren farblich markierten Bereichen sieht die Anwendung ein bisschen aus wie Google Maps. Es wird ausschließlich mit polizeilichen Daten gearbeitet, wie das Institut stets betont. Die Software soll auf der Basis von Erfahrungswerten potenziell gefährdete Gegenden ermitteln, damit die Polizei vor Ort sein kann, bevor ein Verbrechen geschieht, bei Einbruchsserien kann das nützlich sein. Die Software soll ohne personenbezogene Daten auskommen. Allerdings funktionieren Kriminalitätsprognosen dann am besten, wenn eine sehr große Datenmenge zur Verfügung steht, zum Beispiel durch web mining, die systematische Suche und Verarbeitung von Daten aus dem Internet. Im August beschlossen das Oberhausener Institut und die Schweizer IT-Firma Futurelab eine Verbindung ihrer Softwares Precobs und Smartpolice. Letztere ist ein Medienarchiv, das Precobs optimiert, zum Beispiel indem es die Fahndung der Polizei mit Fotos und Videos aus dem Internet unterstützt.
Precobs deckt Delikte ab, die der Massenkriminalität zugeordnet werden: Einbrüche, Diebstahl und Raub und neuerdings auch Sachbeschädigung durch Graffiti. Am wichtigsten seien „Tatort, Tatzeit, Begehungsweise und gegebenenfalls Art der Beute“, sagt Dr. Thomas Schweer vom Oberhausener Institut über die Informationen, mit denen Precobs arbeitet. Allerdings spielten auch „soziografische und sozioökonomische Faktoren“ eine Rolle. Anders gesagt: Es gibt Viertel mit niedrigem und hohem kriminellem Potenzial, gute und schlechte Gegenden. Datenschützer kritisieren, dass die Software trotz Anonymisierung Menschen aus bestimmten Wohngebieten und gesellschaftlichen Schichten stigmatisiert.
In den USA ist Predictive Policing weit verbreitet; auch Social-Media-Daten werden dafür verwendet. In Deutschland sind die Datenschutzgesetze strenger, trotzdem wird mit entsprechender Software aufgerüstet. Das BKA nutzt zum Beispiel das Programm InfoSphere Global Name Analytics der Firma IBM, das unter anderem „die kulturelle Klassifizierung eines Personennamens“ ermöglicht.
Das in Nordrhein-Westfalen entwickelte Predictive-Policing-Programm Skala (System zur Kriminalitätsanalyse und Lageantizipation) geht noch einen Schritt weiter: In einem Positionspapier schreibt Landeskriminaldirektor Dieter Schürmann, dass auch „soziostrukturelle“ und „sozioökonomische“ Daten in das System aufgenommen werden sollen. Zu Soziostruktur und den sozialen Merkmalen eines Menschen zählen unter anderem Nationalität, Migrationshintergrund, Bildung, Religionszugehörigkeit, Familienstand und der Beruf. Solche Informationen könnten in Kombination mit einem Predictive-Policing-Programm zu verstärktem Racial Profiling führen, der systematischen Diskriminierung bestimmter Ethnien. Denn eine Predictive-Policing-Software ist nicht neutral, sondern ebenso voreingenommen und fehlbar wie die Personen, die den Algorithmus programmiert haben.
„Es ist grundsätzlich zu begrüßen, wenn Polizeiarbeit auch auf fortschrittliche Instrumente zur Kriminalitätsbekämpfung zurückgreifen kann“, sagt Konstantin von Notz, netzpolitischer Sprecher der Grünen, dem Freitag. Bei Predictive Policing sei jedoch eine gesunde Portion Skepsis angebracht, „denn das Spektrum der verschiedenen Datenerhebungsmethoden ist äußerst weit“. An der bloßen Zusammenführung und zielgerichteten Auswertung polizeilicher Erkenntnisse gebe es nichts auszusetzen, vor einer Durchkämmung sozialer Netzwerke im Stile einer Rasterfahndung und einer ungeregelten Auswertung von Big-Data-Strömen sei zu warnen. „Der Nutzen für die öffentliche Sicherheit muss hier sehr sorgfältig mit dem Eingriff in Persönlichkeitsrechte abgewogen werden.“
Laut Bundesdatenschutzgesetz dürfen personenbezogene Daten ohne Mitwirkung der Betroffenen erhoben werden, „wenn eine Rechtsvorschrift dies vorsieht oder zwingend voraussetzt“. Auch wenn es „unverhältnismäßig“ aufwendig sein sollte, die Daten direkt bei der betroffenen Person zu erfragen, ist deren Erhebung und Nutzung zulässig. Das Gesetz lässt Behörden, die Informationen aus sozialen Netzwerken fischen oder Charakterprofile von Personen erstellen wollen, viel Spielraum.
Im Stil der Rasterfahndung
Als das Ausmaß der Überwachung durch die NSA öffentlich gemacht wurde, waren die Reaktionen oft überraschend gleichmütig. Überwachung sei ihnen egal, man selbst sei für die NSA uninteressant, weil man „nichts zu verbergen“ habe, sagten viele. Edward Snowden brachte in einem Reddit-Kommentar die Problematik dieser Haltung auf den Punkt: „Zu behaupten, das Recht auf Privatsphäre sei nicht wichtig, weil man nichts zu verbergen hat, ist nichts anderes, als zu sagen, das Recht auf freie Meinungsäußerung sei nicht wichtig, weil man nichts zu sagen hat.“ Demokratie muss auch im digitalen Raum wirken, dafür setzen sich Datenschützer und Whistleblower ein. Hierzulande fehlte lange eine Organisation, die sich eigens mit den Auswirkungen algorithmischer Entscheidungsfindungsprozesse befasste. Im Mai gründete sich Algorithm Watch. Die Initiative zielt auf die Sichtbarmachung und die demokratische Regulierung solcher Prozesse ab. Die Ergebnisse von Datenanalysen haben Einfluss auf das Leben, zum Beispiel wenn man trotz Bonität bei der Bank keinen Kredit bekommt. Betroffene wissen oft nicht, wie das Ergebnis zustande gekommen ist. Oder wer die Verantwortung dafür trägt. Und das ist mit Sicherheit kein Computer.
Was ist Ihre Meinung?
Kommentare einblendenDiskutieren Sie mit.