In diesem Essay wird gezeigt, dass es eine große Diskrepanz gibt zwischen dem, was in der kriminologischen Forschung an Mitteln für eine erfolgreiche Kriminalitäts- und Terrorismusbekämpfung vorgeschlagen und angewendet und was auf der anderen Seite an staatlichen Mitteln und Instrumenten dafür verwendet werden.
Der größte Unterschied hierbei ist das Menschenbild, bzw. das Epistem, wie Mehozay und Fisher sich ausdrücken. Auf der einen Seite wird eine emotionsbetonte, kulturelle Kontextualisierung vorgenommen, um die Ursachen einer terroristischen Handlung zu erforschen, um gegen die Ursachen, die bei dem Menschen zu finden sind, vorzugehen, und den Menschen somit als komplexes und wandelbares Wesen verstehen; auf der anderen Seite wird der Mensch als Datenbündel reduziert, dem keine Handlungsmacht oder Wandelbarkeit zugesprochen wird. Es wird aus letzterer, algorithmischer Perspektive also nicht versucht, Umstände, die schädliches Verhalten hervorbringen zu beseitigen, sondern die Menschen zu beseitigen, die aus diesen Umständen erwachsen sind. Dieses letztere System kann schließlich nur wirklichen Erfolg verbuchen, wenn es stark repressiv ist und die Umstände tatsächlich kontrollieren kann, was aktuell nicht der Fall ist. Erklären, erforschen oder gar beheben kann dieses algorithmische System die Umstände nicht. Dazu bedarf es der Theorie und eines humanistischen Menschenbildes.
Perspektiven auf ein Subjekt (potenzieller) krimineller Handlungen
Betrachtet man die Entwicklungen der Ermittlungsbehörden und der Kriminalpolitik, so scheint es, dass zunehmend algorithmische Analysen von Subjekten, die der Kriminalität zugeordnet werden, die Kriminalitätsbekämpfung prägen. Innerhalb dieser Logiken gilt es, Sicherheitsrisiken zu erheben, die von Menschen ausgehen können. Die Risiken werden anhand festgelegter Faktoren zu bemessen, um entsprechende (präventive) Maßnahmen einzuleiten. In Deutschland gibt es beispielsweise Systeme wie Radar-iTE oder Hessen-Data. Obwohl beide einen unterschiedlichen Fokus haben, verbindet sie dennoch dieselbe Logik: Es geht den Behörden darum, der Kriminalität präventiv entgegenzutreten und nicht ätiologisch. Jedoch ist es fraglich, ob eine den eigentlichen Ursachen von Kriminalität bzw. Terrorismus entfremdete Logik dazu dienen kann, Kriminalität tatsächlich zu unterbinden, oder ob diese Vorgehensweise allein ein Kampf gegen die Hydra ist. Yoav Mehozay und Eran Fisher behaupten, dass diesem Prinzip des algorithmischen Risikoeinschätzens ein neues Epistem zu Grunde liegt, welches sich von einem humanistischen Menschenbild verabschiedet hat. Gegenüber der algorithmischen Logik des neuen Epistems stehen Analysemethoden und Theorien, die ein humanistisches Menschenbild propagieren und sich für die Wandelbarkeit und Einflußbereitschaft des Menschen einsetzen. Dabei spielen sozio-kulturelle Beobachtungen und die Analyse von Narrativen und Emotionen im Vordergrund.
Das Ziel dieses Essays ist es, zu diskutieren, durch welche Mittel eine Person, der ein kriminelles Handeln zugesprochen wird, dargestellt und analysiert werden kann, und welches Mittel sich besser zur Bekämpfung von Kriminalität eignet. Dabei soll besonders hervorgehoben werden, in welchem Licht das jeweilige Menschenbild das Subjekt erscheinen lässt.
Predictive Policing und das algorithmische Selbst
Feeley und Simon, sowie Mehozay und Fisher führen aus, wie das manageriale Denken seit den 1970/80ern in der Pönologie zu der Zielsetzung des „Managens“ von Kriminalität anstatt einer Bekämpfung oder Beseitigung derselben geführt hat (Feeley, 1992, S. 450). Seit dieser Zeit wurden die technischen Möglichkeiten weitaus effizienter gestaltet, bis zum heutigen Zeitalter von Big Data, in dem Algorithmen Risikoeinschätzungen vornehmen. Dabei behaupten Mehozay und Fisher auch, dass mit dieser neuen Betrachtungsweise ein neues Menschenbild einhergeht, bzw. dass dieses durch ein neues Epistem, das algorithmische Selbst, konstruiert wird (Mehozay & Fisher, 2019, S. 524). Dieses zeichnet das Bild eines Menschen, der weder „rational“ noch „pathologisch“ ist noch durch soziale und kulturelle Gegebenheiten geprägt ist. Der Mensch besteht nur noch aus Daten Punkten von Ereignissen, die dann in einer Risikokalkulation verarbeitet werden. Dabei soll rein präventiv eingegriffen werden. Soziale Theorien werden bei dieser Herangehensweise nicht berücksichtigt und weil die Algorithmen teilweise künstlich-intelligent, also selbst-lernend sind, sind sie auch schließlich sich selbst überlassen. Dies bedeutet, dass der Algorithmus beispielsweise Risikovariablen selbst auswählen kann1. Darüber hinaus wird durch das fehlende Menschenverständnis2 auch eine Verbesserungsmöglichkeit eines Subjekts abgesprochen, welches dann ein Strafsystem zum Ergebnis hat, das keine humanistischen Standpfeiler hat und nicht auf Besserung der Betroffenen ausgelegt ist (ibidem 535-537), wie dies in einem Wohlfahrtsstaat sonst üblich ist.
Kommen wir zunächst einmal zu den bereits benannten Systemen in Deutschland, die auf der Logik des algorithmischen Epistems aufgebaut sind: Hessen-Data ist eine Software, die auf Gotham basiert und bei der hessischen Landespolizei benutzt wird. Die Software des IT-Giganten Palantir aus dem Silicon Valley erlaubt es, verschiedene Datenbanken der Behörden zusammenzuführen und so die Informationen verständlicher und schneller aufzuarbeiten. Dabei werden die Informationen, die der Polizei aus Ermittlungen und Strafverfahren vorliegen, zusammengeführt, sodass sein Netz an Informationen und Personen geknüpft wird. Vor der Einführung dieser Software waren diese Daten wesentlich verstreuter und auch nicht in ihren Verbindungen zugänglich. Eine Person erscheint also als Datenset von Ereignissen und Kontakten.
Ein weiteres System ist RADAR-iTE3. Dieses System dient der Risikoeinschätzung potenzieller islamistischer Terroristen und Terroristinnen. Es wurde 2017 vom Bundeskriminalamt eingeführt und besteht aus einem standardisierten Katalog aus Fragen und Antworten, die „eindeutig beobachtbaren Handlungen“ abbilden (Wietschorke & Nieke, 2018). Dieser Fragebogen wird von PolizeibeamtInnen beantwortet und die betroffene Person schließlich in eine von drei Risikokategorien unterteilt:
„RADAR-iTE: Mit RADAR-iTE wird eine Person, zu der eine Mindestmenge an Informationen zu Ereignissen aus ihrem Leben vorliegt, hinsichtlich des von ihr ausgehenden Risikos, in Deutschland eine schwere Gewalttat zu verüben, bewertet und einer Risikoskala zugeordnet, um darauf aufbauend Interventionsmaßnahmen zu priorisieren.“ (Bundeskriminalamt, 2017)
Zusätzlich wurde in Kriminalitätsverfolgung die Einstufung als „Gefährder“ eingeführt:
„Gefährdereinstufung: Wenn bestimmte Tatsachen die Annahme rechtfertigen, dass sich eine Person in unterschiedlicher Art und Weise an politisch motivierten Straftaten beteiligen wird oder eine bestimmte Rolle in der Szene einnimmt, erfolgt eine Einstufung als Gefährder oder Relevante Person und führt zu polizeilichen und/oder strafrechtlichen Maßnahmen.“ (Bundeskriminalamt, 2017)
Anhand dieser Darstellungen des Bundeskriminalamtes kann man klar erkennen, dass diese stark mit den Beobachtungen von Mehozay und Fisher verbunden sind. Dabei werden Datenpunkte, wie der Aufenthalt an bestimmten Orten, aufgenommen und bewertet. Ebenfalls hat das BKA festgestellt, dass „Ermittler zu unterschiedlichen Einschätzungen und Bewertungen über menschliches Verhalten kommen“ (Wietschorke & Nieke, 2018), dies soll auch durch Radar-iTE vereinfacht werden. Dieses Eliminieren von „subjective bias“ mit dem Ziel einer „wissenschaftlicheren und objektiveren Methode“ (Mehozay & Fisher, 2019) entspricht ebenfalls dem Epistem eines algorithmischen Selbst. Darüber hinaus gibt es das Projekt RISKANT, dass Radar-iTE evaluiert (Bundeskriminalamt, 2019) und im Rahmen der High-Tech Strategie 2025 der Bundesministeriums für Bildung und Forschung zivile Sicherheit fördern und die Ermittlungsarbeiten durch Software unterstützen soll (Bundesministerium für Bildung und Forschung, 2017). Auffällig bei den verschiedenen Quellen und Ausführungen zu Radar-iTE und Hessen-Data, ist dass in dieser Technik Prävention und Prädiktion (zumindest in den von mir gefundenen Ausführungen) an keiner Stelle erwähnt wird, dass es eine Absicht gibt zur Besserung und zur Bekämpfung der Ursachen von Kriminalität, und im engeren Sinne das Verständnis über Salafismus, der in Terrorismus münden kann, zu erweitern und zu eliminieren. Es wird hiermit also davon ausgegangen, dass Menschen, die in das „Radar“ geraten keiner Besserung fähig/ würdig sind. Eine solche Besserungsabsicht bzw. Ursachenbekämpfung geht zumindest aus der öffentlich einsehbaren Zielsetzung dieser Programme nicht hervor.4 Ferner bleibt es offen, in welche Richtung sich das Strafrechtssystem in Deutschland weiterentwickelt und ob sich das Bild von Mehozay und Fisher tatsächlich hier zu Lande so abzeichnet.
Narrative Kriminologie - Narrative Analysen
Eine andere Perspektive auf Subjekte krimineller Handlungen offenbaren narrative Analysen. Insbesondere geht es hier um Selbst-Narrative, von denen Sveinung Sandberg schreibt, dass sie immer als bedingt durch ihren kulturellen Kontext und andere Diskurse und Narrative anzuerkennen und zu analysieren sind. Selbst-Narrative stellen nach Sandberg auch eine „notwendige Bedingung“ (necessary cause) für Kriminalität bzw. Terrorismus dar und die Analyse und das Verständnis jener sei unabdingbar, um „feindseligen“ (antagonistic) Narrativen entgegenzutreten und somit Kriminalität und Terrorismus zu verhindern. Narrative verfolgen dabei können dabei den Anspruch verfolgen, in sich kohärent zu sein (Sandberg, 2013, S. 80f). Die Untersuchung von Narrativen ist also eine ätiologische Herangehensweise an Kriminalität und unterscheidet sich so deutlich von Predictive Policing und algorithmischer Risikoeinschätzung. Sie stellt den (potenziellen) Täter in den Vordergrund und analysiert seine Selbstdarstellung und den Versuch eines Puzzlens von Kohärenz durch Erzählungen und den Bezug auf andere Narrative.
In seiner Analyse des Manifestos von Anders Breivik betrachtet Sandberg Breiviks Erzählungen aus dem Blickwinkel verschiedener wissenschaftlicher Disziplinen und Denkschulen. Dabei stellt sich beispielsweise heraus, dass Breivik in seiner Selbstdarstellung sehr oft auf Narrative aus der anti-islamischen Internetszene rekurriert und auch den Jargon, sowie Ausdrücke übernimmt. Er scheint also stark durch die dort herrschende Rhetorik und Meinungsvertretung und Narrative beeinflusst zu sein. Ebenfalls war es Sandberg möglich durch die Analyse des Manifestos herauszustellen, dass Breivik Inspiration in vorhergegangenen Attentaten und Massakern durch andere fand (Sandberg, 2013, S. 74f). In weiteren Ausführungen lässt sich Breiviks Selbst-Narrativ nach Sandberg in mehrere unterschiedliche Selbstdarstellungen unterteilen. In jeder dieser Darstellungen lässt sich ein anderer Zugang zu Breiviks Emotionen, Haltung und Ideologieverortung finden (ibidem 75f).
[...]
1 „algorithmic knowledge is increasingly aided by machine learning […] the need to control variables is reduced […]: any variable can be added to the mix.“ (536)
2 „p reconception of what it ist to be human“ (537)
3 Das Akronym steht für: regelbasierte Analyse potentiell destruktiver Täter zur Einschätzung des akuten Risikos - islamistischer Terrorismus
4 Um zu sehen, wie die genannte Software tatsächlich funktioniert, bedarf es einer genaueren Einsicht in den Softwarecode und die Oberfläche. Dieser Einblick ist jedoch (verständlicherweise) der Öffentlichkeit und mir zu diesem Zeitpunkt nicht gewährt.
- Quote paper
- Philipp Blaich (Author), 2020, Predictive Policing versus narrative Kriminologie. Perspektiven auf ein Subjekt potenzieller kriminelle Handlungen, Munich, GRIN Verlag, https://www.grin.com/document/1030301
-
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X.