Veranstaltung: | LDK am 28. Oktober 2020 |
---|---|
Tagesordnungspunkt: | TOP 8 Verschiedenes |
Antragsteller*in: | Bryan Bernhard Coughlan (KV Berlin-Treptow/Köpenick) |
Status: | Zurückgezogen |
Eingereicht: | 21.02.2020, 18:59 |
V20: Gegen automatisierte Diskriminierung in der Polizeiarbeit
Antragstext
Als grüne Partei setzen wir uns seit unserer Gründung für Gleichberechtigung ein.
Diskriminierung zu bekämpfen und die gleiche Handlungsfreiheit für alle zu schaffen ist ein
zentraler Teil unseres politischen Wirkens. Die Digitalisierung stellt uns auch in dieser
Hinsicht vor neue Herausforderungen. Denn in den vergangenen Jahren sind die technischen
Möglichkeiten, Menschen zu überwachen und statistisch analysieren zu können, erheblich
gewachsen.
Eine dieser Neuerungen ist das sogenannte „predictive policing“, der Ansatz, durch
statistische Analysen kriminelle Aktivitäten vorhersehen zu wollen. Solche Ansätze sind
nicht neu - Daten über Einbruchsserien zu verwenden um Gebiete zu identifizieren, in denen
häufiger eingebrochen wird, ist seit Dekaden üblich. Die Wirksamkeit prognostischer Methoden
zur Kriminalitätsbekämpfung ist aber wissenschaftlich nicht erwiesen. Gleichzeitig führt
dieser Ansatz aber zu einem größeren Bedarf an Daten durch die Polizei, was eine falsche
Weichenstellung ist.
Automatisierte Rasterfahndung
Sobald Algorithmen eingesetzt werden, um vermeintliche Gruppen zu identifizieren, die mit
höherer Wahrscheinlichkeit kriminell handeln könnten, sehen wir darin ein Problem.
Solche Algorithmen bilden zwei Dinge ab: Die Vorurteile der Menschen die sie schreiben und
statistische Korrelationen. In der Konsequenz werden Personengruppen, die vom Algorithmus
als gefährlich identifiziert werden, stärker überwacht als der Rest der Bevölkerung. Zum
einen ist dies stark diskriminierend gegenüber den Personen die, auf Grund ihres sozialen
Hintergrundes, damit leben müssen häufiger kontrolliert zu werden. Zum anderen verstärken
sich solche Vorurteile selbst: durch schärfere Kontrollen in einzelnen Milieus wird dort
auch mehr Kriminalität erfasst – ungeachtet der tatsächlichen Entwicklung dieser Orte. Dies
verfälscht die Statistiken auf denen die Algorithmen beruhen und zementiert die Vorurteile
durch verzerrte Daten.
Das Berliner System „KrimPro“ verwendet unter anderem auch demographische Daten um Gebiete
zu identifizieren, in denen zeitnah besonders viele Einbrüche erwartet werden. Verwendete
Daten sind hier zum Beispiel das durchschnittliche Alter der Bevölkerung und die Wohnlage,
die auch als Proxy für Wohlstand verwendet werden kann. Ein kriminalistischer Mehrwert ist
auch hier nicht bewiesen. Selbst wenn hier die Schutzwirkung von größerer Präsenz der
Polizei in den Vordergrund gestellt wird: das Schutzniveau wird durch den Einsatz dieser
Methoden abhängig von der Demographie.
Vorurteile und Diskriminierung sind sehr alte Probleme. Neu ist, dass diese jetzt technisch
institutionalisiert werden können. Mit der Programmierung solcher Algorithmen wird die
Diskriminierung von Milieus in den Befugnissen der Polizei festgeschrieben. Korrelationen
dürfen dabei jedoch nicht in Kausalitäten überführt werden.
Massenüberwachung
Wenn die Analyse nicht nur demographische, sondern auch personenbezogene Daten verwendet
werden, verschärft sich das Problem weiter. Bei diesen Ansätzen geht es um die statistische
Auswertung des Verhaltens aller Menschen im Einzugsgebiet, um kriminelle Handlungen
vorhersehbar zu machen. Das Verhalten in den Sozialen Medien, soziale Verbindungen zu
Milieus die als gefährlich wahrgenommen werden und Freizeitaktivitäten wie Boxen, können von
Algorithmen als Indikator für kriminelle Neigungen aufgefasst werden.
Um stärkerer Überwachung zu entgehen, entsteht so ein Druck in der Bevölkerung sich
möglichst „normal“ zu verhalten, was die persönliche Freiheit einschränkt. Trotzdem wurden
solche Ansätze unter Beteiligung grüner Fraktionen in Hessen umgesetzt und in Hamburg
geplant.
Forderungen
Aus diesen Gründen sind statistische Methoden zur kriminalistischen Prognose des Verhaltens
von Individuen oder von Gruppen mit den Grundwerten unserer Partei unvereinbar. Wir fordern
daher auf die Analyse demographischer oder personenbezogener Daten in der prognostischen
Polizeiarbeit zu verzichten.
Darüber hinaus fordern wir auch über die Grenzen Berlins hinaus gegen den Einsatz solcher
Technologien einzutreten, zum Beispiel im Bundesrat.
Unterstützer*innen
- Laura Sophie Dornheim (KV Berlin-Kreisfrei)
- Willi Junga (KV Berlin-Treptow/Köpenick)
- Johannes Mihram (KV Berlin-Mitte)
- Michael Servatius (KV Berlin-Kreisfrei)
- Aida Baghernejad (KV Berlin-Friedrichshain/Kreuzberg)
- Anika Wiest (KV Friedrichshain-Kreuzberg)