Springe direkt zu: Textanfang Hauptmenü Suche Weitere Informationen Metanavigation

Hauptmenü



Nachricht

Mittwoch, 15. Februar 2017
Autor/Innen: Bernd Belina

Schuldig bei Verdacht

«Predictive Policing» ist diskriminierend – und ein dubioses Geschäftsmodell

Videoüberwachung des städtischen Raumes. Foto: Daniel Lobo, flickr, CC BY 2.0

Vorhersagen, wann und wo eine Straftat geschieht? Im Film können das Wahrsagerinnen. In der Realität versprechen neue Computerprogramme dasselbe.

Methoden des «Predictive Policing» behaupten berechnen zu können, wann und wo zukünftige Verbrechen stattfinden. Genauer formuliert berechnen sie mittels Algorithmen und auf Grundlage von Kriminalitäts- und mitunter weiteren Daten, in welchen Gebieten und zu welchen Zeiten zukünftige Kriminalität wahrscheinlicher ist. Auf dieser Basis sei es möglich, so das Versprechen, Verbrechen zu verhindern – der alte Traum der Polizei und ihrer Hilfswissenschaft, der Kriminologie, scheint endlich wahr zu werden. In der Presseberichterstattung klingt das dann so: «Stopping crime before it starts» (LA Times), «Vor dem Täter am Tatort» (NZZ) oder «Precrime wird Realität» (Tagesspiegel). «Precrime» meint die Polizeieinheit, die im Science-Fiction Spielfilm «Minority Report» Morde verhindert. Der Verweis auf diesen Film fehlt fast nie, obschon hier nicht Algorithmen Wahrscheinlichkeiten berechnen, sondern Wahrsagerinnen Visionen haben. Egal. Der Film steht in der Berichterstattung einerseits dafür, dass es funktioniert, und er ruft das Bild von hochtechnisierten (männlichen) Polizisten hervor, die im letzten Moment das Leben Unschuldiger retten. Andererseits zeichnet er eine dystopische Vision der Zukunft, in der finstere Mächte die totale Überwachung anstreben und die Vorhersagen falsch oder gefälscht sein können. Die Berichterstattung hierzulande schwankt zwischen diesen beiden Polen: Sicherheitsverspechen versus Freiheitsverlust, Technikeuphorie versus Manipulationsängste, Zustimmung versus Ablehnung. Zu kurz kommen in dieser Sicht auf Predictive Policing zwei Aspekte, die zentral für dessen Verbreitung und für die Funktionsweise der verwendeten Software sind: das dubiose Geschäftsmodell der Anbieter und die rassistischen und klassistischen Tendenzen in der Anwendung. Gängige Kritiken richten sich vor allem auf Probleme des Datenschutzes oder darauf, dass gar nicht sicher ist, ob die Vorhersage-Techniken auch wirklich funktionieren. BefürworterInnen verweisen dann gerne auf vermeintlich positive Erfahrungen in den USA, in England sowie bei den ersten Anwendungen im deutschsprachigen Raum in Zürich, München und Nürnberg. Von dort werden Kriminalitätsrückgänge vermeldet, die in der Sprache nackter Zahlen und harter Fakten für sich zu sprechen scheinen. Doch ein genauerer Blick verdeutlicht, warum die Erfolgsmeldungen mit größter Vorsicht zu genießen sind.

Erstens liegen tatsächlich keine Evaluierungen von Predictive Policing vor, die nicht von den kommerziellen Anbietern der Software oder der sie einsetzenden Polizei durchgeführt wurden. Unabhängigkeit sieht anders aus. Das ist erstaunlich in einer Zeit, in der «Evidence Based Policing» in Form permanenter Überprüfungen und Vergleiche vermeintlich effizienter Methoden als Goldstandard guter Polizeiarbeit gilt. Stattdessen kommen die Erfolgsmeldungen aus den USA so zustande: der führende Anbieter, PredPol, gewährt Polizeien einen Rabatt, wenn diese die selektiven Ergebnisse der von PredPol selbst durchgeführten Evaluierungen in Pressemitteilungen verbreiten; die verwendeten Daten kommen von der Polizei, die Algorithmen gibt PredPol nicht heraus. Ein privatwirtschaftlichstaatlicher Interessensverbund auf Kosten knapper Kassen.

Zweitens, und sehr grundsätzlich, entstammen die verwendeten Daten immer der polizeilichen Kriminalstatistik. In dieser werden Anzeigen gezählt, die entweder aus der Bevölkerung oder durch Kontrollen der Polizei selbst zustande kommen. Was aufgenommen wird und wie das angezeigte Delikt klassifiziert wird, entscheidet die Polizei. Vor Gericht – sollte es soweit kommen – werden dann häufig andere Klassifizierungen vorgenommen, aus einem versuchten Totschlag kann dann etwa eine einfache Körperverletzung werden. Das Zustandekommen der Kriminalstatistik öffnet nicht nur Ungenauigkeiten, sondern auch bewussten Einflussnahmen Tür und Tor. Ist etwa die Personaldecke der Polizei dünn, nimmt sie weniger Anzeigen auf. Soll die Gewaltkriminalität steigen (etwa um einer Law-and-Order-Partei Argumente zu liefern), wird jeder Disput als Körperverletzung aufgenommen. Soll die Straßenkriminalität sinken (etwa um Erfolge vermelden zu können), werden Anzeigen von Fahrraddiebstählen abgewimmelt («Das finden wir ohnehin nicht, und von der Versicherung kriegen sie auch nichts …»). Die Daten, die über Erfolg oder Misserfolg von Predictive Policing Auskunft geben sollen, sind von so vielen Einflussfaktoren abhängig, dass Rückgänge oder Anstiege der «Kriminalitätsbelastung» unmöglich allein auf die neue Technologie zurückgeführt werden können.

Das Zustandekommen der Daten führt zu weiteren Problemen. Was alle PolizistInnen wissen, dass die Kriminalitätsdaten nämlich das Ergebnis ihrer eigenen Arbeit sind, gerät durch die Algorithmisierung und durch die Darstellung der Ergebnisse in Form von Karten in Vergessenheit. Die Vorhersage der Software erscheint als objektiv, als verlässlich, als rein technische Aussage, die ohne menschliches Zutun und frei von Ungenauigkeiten, Einflussnahmen und Interessen zustande gekommen ist. Wenn wir hinzunehmen, dass schwarze, muslimische und arme Menschen deutlich wahrscheinlicher von der Polizei kontrolliert und angezeigt werden, dann birgt Predictive Policing das Potential, diese Rassismen und Klassismen zu verstärken. Wenn in den Daten bestimmte Gruppen überrepräsentiert sind, dann werden die Berechnungen die Polizei genau dorthin führen, wo eben diese Gruppen präsent sind; dann geraten schwarze, muslimische und arme Menschen erneut ins Visier, und zwar, weil die Software das so nahelegt. Die neue Technologie steht damit allen Versuchen entgegen, diskriminierende Praktiken der Polizei durch Trainings, diversifizierte Einstellungspolitik oder neue Regelungen abzubauen. Predictive Policing geht also nicht nur mit einem dubiosen Geschäftsmodell sich selbst evaluierender Anbieter einher, ihm sind zudem rassistische und klassistische Tendenzen inhärent.

Dieser Text erschien zuerst in der Zeitschrift RosaLux.