Stellen Sie sich vor, Sie hätten die Möglichkeit, Straftaten vorherzusagen. Und dann tun Sie es nicht. Sind Sie mitschuldig?
Diese Frage könnte sich die Londoner Polizei gestellt haben, als sie einen neuen Pilotversuch startete. Einem Bericht der britischen Times zufolge wird dort künftig eine Computersoftware Daten über Tatverdächtige exhibitionistischer Handlungen sammeln und auswerten, um schwerere Sexualstraftaten vorherzusagen. Statistisch werde einer von 20 dieser Verdächtigen in Zukunft eine Vergewaltigung begehen, so ein wissenschaftlicher Berater der Londoner Polizei gegenüber der Times. Die Mission: diesen einen zu finden und zu stoppen. 100 Individuen identifizierte das Programm als besonders gefährlich, nachdem es einen Pool von 35.00
s. Die Mission: diesen einen zu finden und zu stoppen. 100 Individuen identifizierte das Programm als besonders gefährlich, nachdem es einen Pool von 35.000 Verdächtigen analysiert hatte. Was die Beamten nun konkret tun, bleibt – wohl aus taktischen Gründen – ihr Geheimnis. Man spricht vage von „vollen polizeilichen Hintergrundchecks“. Es dürfte sich um Maßnahmen handeln, die tief in Grundrechte eingreifen – und die auf einen Computerbefehl zurückgehen. Könnte es das bald auch in Deutschland geben?Bundesverfassungsgericht wies der digitalen Polizei Grenzen aufWenn Polizisten mit datengestützten Prognosen arbeiten, nennt man das in Fachkreisen Predictive Policing, vorhersagende Polizeiarbeit. Dass ein Computer wie im Londoner Pilotversuch die Gefährlichkeit von Einzelpersonen bewertet, ist bislang ein Novum. Tobias Singelnstein, Kriminologe und Polizeiforscher an der Universität Frankfurt, unterscheidet im Gespräch mit dem Freitag drei Arten von vorausschauender Polizeiarbeit: automatisierte Auswertung innerhalb polizeilicher Datenbanken, klassische Gefährderprogramme und ortsbezogene Prognosen. In Deutschland verstehe man unter Predictive Policing eher letzteres – etwa Analysen, welche Gebiete einer Stadt gerade besonders einbruchsgefährdet sind. Dabei wird nicht mit personenbezogenen Daten gearbeitet.„Das sind alles Schritte in eine ähnliche Richtung“, meint Tobias Singelnstein, „und sie entsprechen dem beständigen Präventionsstreben der Polizei. In den Behörden gibt es den ausgeprägten Wunsch, 'vor die Lage' zu kommen, also immer früher einzugreifen.“ Was die computergestützte Datenanalyse angeht, habe es vor fünf bis sechs Jahren einen regelrechten „Hype“ gegeben. Am Dämpfen des Hypes war Singelnstein selbst beteiligt. Er prozessierte erfolgreich vor dem Bundesverfassungsgericht gegen den Einsatz einer polizeilichen Datenverarbeitungssoftware. Das Gericht bewertete in seinem Urteil die rechtlichen Hürden der permanenten automatisierten Auswertung als zu niedrig und sah das informationelle Selbstbestimmungsrecht der Betroffenen verletzt.Was Predictive Policing sein solle, fragt eine Polizeisprecherin„Natürlich ist es eine bestechende Idee, dass Kommissar Computer uns sagen kann, wo was passieren wird, bevor der Schaden eingetreten ist“, sagt Singelnstein. „Deshalb ist das eine Perspektive, die Polizei und Politik auch weiter verfolgen werden. Neue Arten der Datensammlung, automatisierte Datenverarbeitung, Predictive Policing, das sind alles unterschiedliche Enden einer ähnlichen Entwicklung.“Fragt man die Polizei selbst, winkt sie allerdings ab. Eine Abfrage des Freitag ergibt: weder auf Landes- noch auf Bundesebene arbeiten deutsche Beamte an der Weiterentwicklung von Predictive Policing. Der Nutzen stünde zwar „grundsätzlich außer Frage“, heißt es von der Bundespolizei. Trotzdem habe die Behörde die Praxis „bisher weder implementiert noch erprobt“.Die Landeskriminalämter verweisen auf Nachfrage auf Pilotversuche aus der „Hype“-Zeit, alle beziehen sich auf bestimmte Delikte an bestimmten Orten, meistens geht es um Wohnungseinbruchsdiebstahl. Auch die Hochschule der Polizei in Berlin gibt gegenüber dem Freitag an, derzeit nicht an Predictive Policing zu forschen. Aus einer der angefragten Landespolizeien ruft eine Pressesprecherin zurück und fragt, was das überhaupt sein soll. Im Polizeipräsidium Saarland sehe man das Risiko systembedingter „Fehlinterpretation von Daten“, in Niedersachsen ein „kritisches Verhältnis von korrekten und fehlerhaften Vorhersagen“, in Nordrhein-Westfalen „Datenunsicherheiten“.Hardliner Rainer Wendt: „Wenn schon, dann mit so vielen Daten wie möglich“Grundsätzlich scheint die Digitalisierungsskepsis also nicht vor den Toren der Polizeiwachen zu enden. Doch auch deutsche Beamte blicken über den Tellerrand. Internationale Forschungs- und Testprojekte würden aufmerksam verfolgt, heißt es aus verschiedenen Bundesländern. In München, wo eine Prognosesoftware nach Tests eingestellt wurde, betreibt das Polizeipräsidium einem Sprecher zufolge „ständige Marktschau nach einem geeigneten Nachfolgeprodukt“. Und dann sind da noch Hardliner wie Rainer Wendt, Vorsitzender der Deutschen Polizeigewerkschaft. Der umstrittene Verband stellt immer wieder Maximalforderungen, wenn es um die Erweiterung polizeilicher Befugnisse geht. Gegenüber dem Freitag erklärt Wendt, die Qualität der Prognose erhöhe sich, je dezidierter die zu verarbeitenden Daten seien. Das schließe „verhaltensbasierte Prognosen“ nicht aus. „Predictive Policing braucht große Datenmengen, um einigermaßen zuverlässige Prognosen erstellen zu können. Diese sollten möglichst exakt sein, was wiederum personenbezogene Eingriffe bedeuten kann, wenn dadurch Personen identifizierbar werden.“ Gleichzeitig dürften Ergebnisse von Datenanalysen „nicht der alleinige ausschlaggebende Faktor für polizeiliche Maßnahmen sein, sondern eine Hilfestellung für die polizeiliche Einsatzentscheidung“. Selbsterfüllende ProphezeiungGerade darin, dass die Optimierung der Technik immer mehr Daten braucht, sieht Tobias Singelnstein von der Universität Frankfurt das Problem. „Das steht in einem grundlegenden Widerspruch zu unseren datenschutzrechtlichen Vorstellungen und der Idee von informationeller Selbstbestimmung.“ Das Vorgehen der Briten, vom Computer identifizierte Personen gezielt zu beobachten, hält er für eine selbsterfüllende Prophezeiung: „Entweder, es passiert nichts. Dann denkt man, die ergriffene Maßnahme hat funktioniert. Oder es kommt zu einer Straftat – und die Software hat Recht behalten, was das Gefahrenpotential der Person angeht.“ Vom Erfolg des Londoner Pilotversuchs dürfte auch hierzulande vieles abhängen. Die Auswertung bleibt abzuwarten – und auf menschliches Versagen zu prüfen.