Sie sind hier: RAV > PublikationenRAV-InfoBriefeInfoBrief #118, 2019 > Von Predictive Policing zu Legal Tech

Von Predictive Policing zu Legal Tech

EIN RECHTSSTAAT FÜR MORGEN?

Volker Eick

Durch die 24/7/365-Nutzung von Informationstechnologien fallen Daten an. Das führt seit einigen Jahren zur Vollerfassung und Protokollierung menschlichen Handelns und Geredes (Kommunikation). Kommerziellen Unternehmen, aber auch Polizei- und Strafverfolgungsbehörden fordern und/oder nehmen sich schlicht umfassenden Zugriff auf diesen ›Datenreichtum‹, auf Big Data. Der Blick richtete sich bisher vorwiegend in die Vergangenheit von Menschen, nimmt seit einigen Jahren nun aber auch deren mögliche Zukunft in den Fokus. Es überrascht nicht, dass auch die Rechtsberufe betroffen sind. Der Beitrag gibt einen Überblick zu einigen Trends und wirft diesbezüglich Fragen auf.

Mithilfe von Algorithmen und Künstlicher Intelligenz (KI) werden Daten gespeichert, nachfolgend oder in Echtzeit durchsucht, analysiert und die Ergebnisse auf vielfältige Weise eingesetzt; wesentliche Grundlage dafür sind Rechnerleistungen, Speicherkapazitäten und die Möglichkeiten der quantitativen Datenanalyse (Big Data).(1) Insgesamt handelt es sich um Trends,(2) die marktgetrieben(3) auch auf eine Durchtechnologisierung der Strafrechtspflege und Polizeiarbeit zielen.
Legal Tech (kurz für Legal Technology) bezeichnet Software und Online-Dienste, die juristische Arbeitsprozesse unterstützen oder gänzlich automatisiert durchführen können; dazu gehört auch ›Predicitve Justice‹ (›Pre-Jus‹), also ›vorhersagende Justiz‹.
Pre-Pol (kurz für Predictive Policing) basiert auf Statistik sowie den Überlegungen der ›Soziophysik‹ und meint Software, die die zielgenaue Steuerung des Einsatzes von Polizeikräften ebenso ermöglichen soll, wie die Analyse von Falldaten zur Berechnung der Wahrscheinlichkeit, wer zukünftig straffällig wird und wo sich die Tatorte befinden.(4) Städte wie Chicago,(5) London(6) oder Zürich(7) haben ›vorhersagende‹ Software, die sich auf zukünftige Straftäter*innen richtet, bereits in ihrem Portfolio und füttern damit den digitalen Anbietermarkt.(8) In der Bundesrepublik werden unter Beteiligung des BKA derzeit in sechs Bundesländern ortsbezogene Daten in Machbarkeitsstudien, Modellprojekten und Masseneinsätzen insbesondere für den Bereich Wohnungseinbruchdiebstahl durchgeführt.(9)
Durch diese technischen Möglichkeiten ergeben sich Anwendungsgebiete die (bisher noch) kaum unter ethischen Aspekten, aus grundrechtlicher Perspektive und aus grundlegenden Erwägungen zu verfahrenstechnischen Prinzipien (dazu unten) diskutiert wurden. Besonders kritisch sind diese Anwendungen, wenn sich personenbezogen ›Pre-Pol‹ und ›Pre-Jus‹ ein Stelldichein geben.

PREDICTIVE POLICING (›PRE-POL‹)

In Chicago, um kurz einen Blick ins außereuropäische Ausland zu werfen, führt beispielsweise die Polizei mithilfe von data mining und machine learning eine ›Strategic Subjects List‹ (auch ›Heat List‹ genannt),(10) also ein Ranking für potentielle Straftäter*innen und Opfer von Straftaten. Grundlage sind Daten zu Berufstätig- bzw. Erwerbslosigkeit, Vorstrafen, Wohnort sowie Kontakten ›ins Milieu‹. Personen, die nach diesem Ranking in dieser Liste aufsteigen, werden polizeilich unter (permanente) Kontrolle gestellt.(11) Nach derselben Logik wird die ›no fly list‹ in den USA und mittlerweile auch in der EU erstellt, auf der Personen aufgeführt sind, die kein Flugzeug besteigen dürfen – auch nicht als Passagier –, wenn sie nach vergleichbaren Kriterien mit ›Terror‹ in Verbindung gebracht werden.(12) Selbst in Programmen, die in der BRD unter dem Slogan ›Soziale Stadt‹ laufen würden, wird in den USA community policing mit Vorhersagesoftware betrieben.(13)
Auch in Europa ist personenbezogenes ›Pre-Pol‹ mittlerweile recht weit verbreitet: Einen ersten Überblick bietet etwa das Automating Society-Projekt von Algorithmen Watch,14 aktuelle Studien existieren aber u.a. auch für Frankreich,(15) Großbritannien,(16) Italien,(17) Österreich,(18) die Schweiz(19) und die Türkei.(20) In Großbritannien, um ein Beispiel herauszugreifen, verwenden drei Polizeieinheiten – Kent, West Midlands sowie Avon and Somerset – verschiedene Arten ›vorhersagender‹ Polizeitechnologie, um herauszufinden, wo sie ihre Ressourcen am besten konzentrieren sollten. Durham nutzt einen Algorithmus, um die Wahrscheinlichkeit einer erneuten Straftat zu ermitteln, während Bewährungshelfer*innen im ganzen Land ein mechanisiertes Bewertungsinstrument verwenden, um das Risiko erneuter Straffälligkeit von Inhaftierten vor der Entlassung zu messen. Davon berichtet u.a. die Law Society,(21) die daraus schließt, dass Algorithmen das Potenzial haben, bürger- und menschenrechtsrelevante Verzerrungen im Justizsystem zu etablieren bzw. zu verstärken, so z.B. die ohnehin bestehende Tendenz, bestimmte Bevölkerungsgruppen polizeilicherseits unterzuversorgen oder anderen gegenüber algorithmengestützt noch übergriffiger zu werden (bspw. beim racial profiling). Sie warnt auch vor der Gefahr, dass Menschen sich insgesamt zu sehr auf automatisierte Unterstützung verlassen.(22)

DIE LAGE IN DEUTSCHLAND

In Deutschland wird ›Pre-Pol‹ derzeit in sechs Bundesländern eingesetzt bzw. getestet.(23) Anders als in den USA werden aber – außer bei sog. Gefährdern und Relevanten Personen, denn hier führt das BKA ein eigenes Programm, RARADAR-iTE, das nunmehr bei Bund und Ländern im Einsatz ist und explizit auf Personen abhebt,(24) sowie in Hessen (dazu unten) – keine personenbezogenen Daten erfasst bzw. ausgewertet. Vielmehr werden bisher ausschließlich raum- oder zeitbezogene Daten genutzt; man spricht entsprechend von ›predictive mapping‹ bzw. ›predicitve identification‹.(25)
Dabei sind grundsätzlich drei Vorgehensweisen und theoretische Vorstellungen in den Bundesländern zu unterscheiden: erstens der Einsatz von kommerzieller Standardsoftware, die im Wesentlichen auf der Near-Repeat-Theorie basiert (Bayern und Baden-Württemberg: PRECOBS; Hessen: KBL-operativ); zweitens der Einsatz von in-house weiterentwickelter Standard-Software, die im Wesentlichen auf der Near-Repeat-Theorie beruht (Niedersachsen: PreMAP); drittens der Einsatz von selbst entwickelten Systemen, die neben den Polizeidaten und der Near-Repeat-Theorie weitere Indikatoren berücksichtigen (Nordrhein-Westfalen: SKALA, Berlin: KrimPro).
Zwei Sonderfälle stellen die Bundesländer Hessen und Nordrhein-Westfalen (NRW) dar: Seit 2017 arbeitet das LKA Hessen mit der Software KLB-operativ (Kriminalitätslagebild-operativ), die durch Software des Unternehmens Palantir unterstützt wird,(26) hier werden auch personenbezogene Daten verarbeitet.(27) Das Unternehmen wurde von Paypal-Gründer und Facebook-Investor Peter Thiel ins Leben gerufen. Als Quellen nutzt die Software Polizeidatenbanken, Daten aus Telefonüberwachungen, Daten von ausgelesenen Handys, aber auch Facebook-Profile.(28) Auch das LKA NRW mit seiner Software SKALA(29) ist insoweit ein Sonderfall, weil hier »systematisch Kriminalitätstheorien gesichtet« und »Informationen zur Infrastruktur und sozioökonomischen Zusammensetzung von Wohnquartieren verarbeitet« werden – die Rede war von 15 Millionen Daten.(30)
Außer den Entwicklern weiß niemand, wie die verwendeten Pre-crime-Algorithmen arbeiten. Wir haben es aus dieser Perspektive mit einem seltenen Fall von ›Selbstentmachtung der Polizei‹ zu tun, denn die Polizei handelt aufgrund einer Software, die sie nicht kennt und daher nicht verstehen kann; dieses Wissen monopolisieren Firmen wie das Start-up Palantir und der die Alphabet Inc.
Noch gibt es immerhin Streit um die Effektivität solcher ›The Minority Report‹-Software – so hat das Innenministerium von Baden-Württemberg den Einsatz von PRECOPS inzwischen eingestellt und sich von Prognose-Software insgesamt verabschiedet.(31)
Ob durch Überwachung auf Grundlage von Algorithmen vermehrt soziale Minderheiten oder Menschen in sozioökonomisch depravierten Stadtteilen in den Fokus der Polizei rücken könnten (Stichwort racial profiling), bleibt in deutschen Ministerien und Polizeidienststellen ebenso ausgeblendet, wie die Frage, welchen Beitrag steigender Kontrolldruck der Polizei zur Stigmatisierung dieser Bevölkerungsgruppen und Nachbarschaften leistet.
Schwer einzuschätzen bleibt zudem, welche Macht ›objektive‹ Daten auf Polizeikräfte haben, die unter Druck stehen, zukünftige Straftaten zu verhindern und denen es an Selbstsicherheit und Wissen fehlt, sich gegen diese (vermessenen) Ansprüche von Teilen der Öffentlichkeit und Politik und (vermeintliche) Vorgaben von Algorithmen zu wehren (immerhin legen solche Berechnungen auch zunehmend deren Dienstpläne oder die Sollstärken von Abteilungen fest und sind damit immanenter Bestandteil des polizeilichen Arbeitsalltags).(32) Weitere Herausforderungen und ungeklärte Fragen resultieren aus der mangelnden Transparenz von Algorithmen und Fragen, die aus dem Zugriffsrecht auf Daten resultieren können, wenn Software von öffentlichen Stellen gemeinsam mit kommerziellen Unternehmen entwickelt wird, sowie der Frage der Haftbarkeit Künstlicher Intelligenz, wenn diese ›Fehler‹ macht, zu rechtswidrigem Handeln anleitet oder es direkt begeht. Dies kann nicht nur zu Datenschutzproblemen führen, sondern auch die Anfechtung von Algorithmen vor Gericht erschweren oder gar verhindern (vgl. dazu unten, Legal Tech).

LEGAL TECH – ›JURA AUS DEM AUTOMATEN‹?

Mehrheitlich wird unter ›Legal Tech‹ der Einsatz von computergestützten, digitalen Technologien verstanden, um Rechtsfindung, -anwendung, -zugang und -verwaltung durch Innovationen zu automatisieren und zu vereinfachen; es geht um Effizienz- und Effektivitätssteigerung.(33)
Der Begriff ›Legal Tech‹ umfasst mithin zunächst den technologischen Umgang mit verändertem Verbraucherverhalten, wenn etwa auch Anwält*innen über Internet-Plattformen mit ihrer Mandantschaft zusammengebracht werden. Dazu gehören aber auch die elektronische Akte (beA, das besondere elektronische Anwaltspostfach), das papierlose Büro oder Formen sicherer Kommunikation mit Gerichten, Behörden, Kolleg*innen und Mandantschaft sowie die elektronisch unterstützte Bearbeitung und Erschließung von Materialien, die für das Verfahren relevant sein könnten.
Legal Tech‹ spielt auch als Sammlung von juristisch relevanten Daten, zum Beispiel in der Geldwäscheprävention – dort ist unter den Überschriften Customer Due Diligence (Stichwort: Sorgfaltspflicht gegenüber Kund*innen) und Know Your Customer (Stichwort: Ermittlungspflichten) mittlerweile gesetzlich vorgegeben, welche Daten beim Kauf von Objekten und sonstigen Finanztransaktionen digital erhoben, gespeichert und ggf. weitergegeben werden müssen (§§ 2 Abs. 1 und 2, 10, 11 Abs. 4 GwG). Automatisch erstellte Steuerbescheide oder durch Algorithmen entworfene und dynamisch modifizierte Vertragswerke (smart contracts) gehören heute schon zum alltäglichen Rechtsgeschäft,(34) weitere juristische Fragen werden sich aus dem Einsatz selbstfahrender Fahrzeuge ergeben.(35)
Schließlich ist auf die strafrechtlichen Herausforderungen zu verweisen, die sich aus der digitalen Tatbeschuldigung, Tatbegehung und Tataufklärung in Strafverfahren insbesondere grenzüberschreitend ergeben, denn es »ist kaum bestreitbar, dass technologiegetriebene Digitalisierung von Innerer Sicherheit und Strafjustiz das Verstehen und Bewerten der digitalen Beweismittel be- bzw. verhindert, die Unabhängigkeit der Justiz berührt und die Waffengleichheit für die Strafverteidigung untergräbt«.(36) Das betrifft den Zugang zu mit Software-Hilfe erzeugten beweiserheblichen Befunden, aber auch generell die Reliabilität, Validität, Objektivität und Plausibilität der Daten.

Cyberjustice (›Cy-Jus‹)

Eine weiterführende Anwendung von ›Legal Tech‹ sind durch Maschinen ausgeführte digitale juristische Dienstleistungen, die die EU als ›Cyberjustice‹ bezeichnet. Die Europäische Kommission für die Wirksamkeit der Justiz (CEJEP) nennt die Erleichterung des Zugangs zur Justiz sowie die Unterstützung von Richter*innen oder Verwaltungsgerichten als Beispiele.(37) Frankreich etwa entwickelte Sagace, einen Verwaltungsdienst, der es einem Kläger ermöglicht, online zusammenfassende Informationen über seinen Rechtsfall zu erhalten. Die Niederlande bieten eine Schlichtungs- und Vermittlungsplattform namens Rechtwijzer an, die vor Verfahrensbeginn bei der Beilegung von Streitigkeiten im Zusammenhang mit Mietverhältnissen, bei Nachbarschafts- oder Familienstreitigkeiten helfen soll. Darüber hinaus stellt das Vereinigte Königreich einen Dienst namens ›Make a plea‹ zur Verfügung, ein Online-Dienst zur Abarbeitung von Verkehrsdelikten; der Service ermöglicht es, sich schuldig zu bekennen und das gerichtliche Urteil online zu erhalten. Der Nutzen dieser juristischen Dienstleistungen für Kund*innen ist offensichtlich und drückt sich in einer massiven Kostenreduktion der einzelnen Dienstleistungen aus, sei dies für eine standardisierte Rechtsinformation oder die Aburteilung und Einkassierung von Bußgeldern ohne Involvierung von Jurist*innen. Die fortschreitende Standardisierung dieser Informationen und Urteile, wird auch dazu führen, dass Abweichungen unwahrscheinlicher werden und aufwändiger gerichtsfest nachzuweisen sein werden. Damit werden sie teurer werden und schließlich nur denen zur Verfügung stehen, die es sich leisten können, ihren Fall als Einzelfall zu behandeln. Schließlich sind auch EU-Rechtsvorschriften etwa zu eEvidence in den Blick zu nehmen.(38)
Diese Art von ›Cyberjustiz‹, die auf eine sich ständig intensivierende Normierung und Standardisierung der Rechtssubjekte ausgerichtet wird, ist zu unterscheiden von ›vorhersagender Justiz‹, die erst jüngst an der Schnittstelle zwischen künstlicher Intelligenz, Big Data und öffentlich verfügbaren Datenquellen auftauchte.

Predictive Justice (›Pre-Jus‹)

Dank des zunehmenden Fortschritts im Bereich der Künstlichen Intelligenz, die es Maschinen ermöglicht, immer größere Datenmengen zu verarbeiten, und Dank der Politik, die immer mehr juristisch relevante Daten veröffentlicht, sind Start-ups mit einem doppelten Versprechen auf dem ›Justizmarkt‹ erschienen: die Rechtsunsicherheit zu verringern und Big Data-gesteuerte Rechtsvorhersagen zu treffen. »Die Idee ist, die zeitraubende Suche nach Rechtsentscheidungen zu vernichten«, spitzt das etwa der Präsident von Doctrine (https://www.doctrine.fr/) während eines Symposiums über PreJus an der Katholischen Universität Lille zu.(39) Die Verwandlung von Rechtsprechung in datengesteuerte Rechts- bzw. Urteilsprojektion wird ermöglichen, die Erfolgsaussichten in einem bestimmten Verfahren zu beurteilen, vorab die Höhe der möglichen Vergütung zu bestimmen und auf dieser Grundlage die Anwaltsstrategie, sofern nicht bereits als Cyberjustice angeboten, an dem auszurichten, was von der Maschine als erfolgreich in vorangegangen Fällen analysiert worden ist.
Zu diesen Start-ups gehören hochspezialisierte Anbieter, die hochstandardisiert und ›automatisch‹ etwa Schadensersatzansprüche digital prüfen, erheben und abwickeln – Firmen wie Mietright, MyRight oder Unfallhelden sind Beispiele. Im Ergebnis zielt dieses Legal Tech-Instrument darauf ab, Rechtsentscheidungen massenhaft herbeizuführen, für die die Software Erfolgsaussichten ermittelt hat. Solche Analysen identifizieren Zusammenhänge zwischen Inputdaten (Gesetz, Sachverhalt, Begründung) und Outputdaten (formales Urteil, wie z.B. Entschädigungssumme). Als relevant erachtete Korrelationen ermöglichen es, Modelle zu erstellen, die bei Verwendung mit neuen Eingangsdaten (neue Fakten, wie z.B. die Dauer des Vertragsverhältnisses) eine Vorhersage der Entscheidung (wie z.B. den Vergütungsbetrag) ergeben. Diese nicht mehr ganz jungen Anbieter auf dem Justizmarkt sind insofern eine Herausforderung, weil sie gänzlich befreit sind von einem branchenüblichen Berufsethos agieren und sich schwer absehen lässt, wo die Grenze dieses auf Standardisierung und Massenkommunikation beruhenden Marktes gezogen werden wird – und inwieweit dadurch Rechtsprechung und schließlich Grundrechte transformieren werden.
Noch weiter geht ›Legal Tech‹ zum Beispiel in der Anwendung durch die französische Firma Predictice.com (https://predictice.com/), deren Software derzeit von den Berufungsgerichten von Rennes und Douai sowie der Anwaltskammer in Lille getestet wird). Die Firma verspricht, landesweit einer »unvorhersehbaren, zufälligen und ungleichen Rechtsprechung« ein Ende zu bereiten und sich stattdessen »auf etwas Logischeres, Wissenschaftlicheres oder zumindest ein wenig besser Kontrolliertes zuzubewegen«.(40) Im Ergebnis zielt dieses Legal Tech-Instrument darauf ab, Rechtsunsicherheit zu beseitigen oder wenigstens zu verringern; man spricht von Künstlicher juristischer Intelligenz (artificial legal tech).
Im Wesentlichen wird einem Computer dafür beigebracht (teilweise unter Verwendung von maschinellem Lernen, das es seinem System ermöglicht, mit einem Algorithmus zu lernen, ohne explizit dafür programmiert zu sein), Routineaufgaben auszuführen und/oder große Datenmengen zu durchsuchen. Eine praktische Implementierung von KI innerhalb der juristischen Profession ist die ›vorhersehende Kodierung‹ (predictive coding), letztlich eine Form der technologiegestützten Überprüfung einer Vielzahl von Dokumenten, um deren Relevanz zu klären (e-disclosure). Predictive coding ist in bestimmten Rechtsfällen mittlerweile sogar vorgeschrieben (EWHC 1464 (Ch)).(41)
Geht es um den Einsatz von komplexeren und selbstlernenden KI-Systemen, die für ›Legal Tech‹ zum Einsatz kommen, steht die Branche vor einer weiteren Schwierigkeit, namentlich: der Haftbarkeit solcher Systeme. Produziert eine KI einen gravierenden Fehler, so ist derzeit ungeklärt, wer dafür zur Rechenschaft gezogen werden kann.
In den USA und in Großbritannien kommen solche Programme bereits in der Strafjustiz zur Anwendung: So verwenden mehrere US-amerikanische Bundesstaaten Softwareprogramme wie Correctional Offender Management Profiling for Alternative Sanctions (Compas) oder Level of Service Inventory-Revised (LSI-R), um zu entscheiden, ob Angeklagte vor einem Prozess inhaftiert werden oder nicht, oder um die Wahrscheinlichkeit eines Rückfalls zu beurteilen, was wiederum Einfluss auf das Strafmaß haben kann.(42) Durhams Polizei führte das Harm Assessment Risk Tool (HART) ein, ein Programm, das bestimmt, ob ein Verdächtiger in Untersuchungshaft gehalten werden soll oder nicht; das Programm berücksichtigt dreißig verschiedene gebiets- und personenbezogene Faktoren.(43)
Damit sind Logik und Herangehensweise von ›Pre-Jus‹ grundsätzlich identisch mit der von Pre-Pol, nämlich Programme mit Täterprofilen zu füttern, Personendaten mit möglichen Straftaten zu verbinden und solche Daten aufgrund einer Modellannahme oder einer Theorie miteinander zu korrelieren. Dass sich daraus diskriminierende Muster ergeben, kann nicht erstaunen, basieren doch die Daten auf Ergebnissen sozialer Ausgrenzung, Ausschluss, Diskriminierung, Rassismus. Aus solchem algorithmisierten Datenmaterial wird via Annahmen und Prognosen öffentlich kaum nachvollziehbar sukzessive ein neues ›objektives‹ System der Rechtsprechung und der präventiv ›festgestellte‹ Straftäter.

Predictive Workfare (›Pre-Wor‹)

Auch jenseits des Strafrechts wird mit Algorithmen bestraft, etwa in den im Zuge des Neoliberalismus eingeführten Workfare-Regimes, die einerseits auf Arbeitszwang, andererseits auf die ›Aussteuerung‹ aus den Sozialsystemen zielen. Vorläufer waren auch hier die USA.(44)
In Österreich – und das wird arbeits(losen) rechtliche Fragen aufwerfen – setzt ab 2020 der Arbeitsmarktservice (AMS) ein statistisches Modell ein, das auf Grundlage von Ausbildung, Geschlecht, bisheriger Erwerbskarriere, Alter, Staatsbürger*innenschaft und anderen Kriterien berechnen soll, welche Chancen Arbeitslose haben, wieder Arbeit zu finden. Dazu werden Erwerbslose in Kategorien eingeteilt und nach ihren Vermittlungschancen gefördert oder ›ausgesteuert‹. Gilt Kinderbetreuung, laut Algorithmus, als ein Vermittlungshindernis und gilt dies, wieder laut Algorithmus, auch für das jeweilige Alter, kann dies direkt aus der Förderberechtigung führen: Im AMS wurde mithin die Entscheidung getroffen, bestehende Ungerechtigkeit via Algorithmus fortzuschreiben und damit zu verstärken.(45)
Ein vergleichbares Programm – hier gegen ›Sozialmissbrauch‹ unter dem Titel System Risk Indication (SyRI) – läuft mit 17 Kategorien personenbezogener Daten in den Niederlanden(47) und zielt darauf, erwerbslose Bürgerinnen und Bürger aus dem Sozialhilfebezug auszusteuern.

EINIGE FRAGEN AN DEN ›FORTSCHRITT‹

Diverse Autorinnen und Autoren haben sowohl die Form als auch den Inhalt solcher Ansätze kritisiert. Danach ist etwa die mathematische Modellierung komplexer sozialer Phänomene grundsätzlich keine Aufgabe, die mit anderen, leichter quantifizierbaren Aktivitäten gleichgesetzt werden kann (wie z.B. das Spielen von Go oder das Erkennen einer Photographie): Hier besteht ein viel höheres Risiko für Fehlkorrelationen, respektive die digitale Verstetigung diskriminierender Vorurteile. Darüber hinaus können sich in der Rechtstheorie zwei widersprüchliche Entscheidungen als gültig erweisen, wenn die rechtliche Begründung fundiert ist. Folglich wäre das Treffen von Vorhersagen eine reine Information, die keinen Anspruch auf die Wahrnehmung als Vorschrift erheben kann.
Die britische Law Society sieht daher die Notwendigkeit, einen Rechtsrahmen für den Einsatz von, insbesondere komplexen, Algorithmen zu entwickeln. Teil davon müsse auch ein nationales Register von verwendeter Algorithmus-Systemen sein, aus dem auch hervorgehen müsse, wie Algorithmen zu ihren jeweiligen Ergebnissen kommen.(47)
Die Frage ist letztlich, ob Recht vorhersehbar sein soll. Mit Blick auf Algorithmen gilt dann aber wohl, dass eine Regel nicht vorhersehbar ist, wenn man die Anwendungsregeln dieser Regel nicht kennt, also nicht weiß, wie ein Gesetz im Einzelfall ausgelegt werden wird. Diese nachrangigen Regeln sind viel schwieriger zu erkennen und deutlich weniger formalisiert als die erstgenannten. »Deshalb bieten sie den Anwältinnen und Anwälten einen gewissen Ermessensspielraum«,(48) Soll das Gesetz ein gewisses Maß an Vorhersehbarkeit gewährleisten, muss von Fall zu Fall um Recht und Gerechtigkeit gerungen werden.
Im Frühjahr 2020 wird sich die EDA auf einer Tagung mit diesen und weiteren Fragen auseinandersetzen, das sollte zeitnah auch der RAV tun – denn es ist vorhersehbar, –  dass wir mit diesen Themen nicht nur im Gerichtsaal konfrontiert sein werden.

Volker Eick ist Politikwissenschaftler und Mitglied im erweiterten Vorstand des RAV.

(1) Vg l. A. Završnik (ed.), Big Data, Crime and Social Control. London 2018; R. Reichert (Hg.), Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie. Bielefeld 2014; J. Vlahos, The Department of Pre-Crime, in: Scientific American, 306(1), 2012.
(2) M. McGuire & T.J. Holt (eds), The Routledge Handbook of Technology, Crime and Justice. London 2017; vgl. (zu crime mapping) P.K. Manning, The Technology of Policing. New York 2008.
(3) Vgl. zu zwei Teilbereichen V. Eick, BodyCams in den USA und der BRD. In: Bürgerrechte & Polizei/CILIP 112, 2017; V. Eick, Weiche Waffen für eine harte Zeit? In: Kritische Justiz 45(1), 2012.
(4) S. Egbert & S. Krasmann, Predictive Policing. Eine ethnographische Studie neuer Technologien zur Vorhersage von Straftaten und ihre Folgen für die polizeiliche Praxis. Hamburg 2019; T. Knobloch, Vor die Lage kommen: Predictive Policing in Deutschland. Gütersloh 2018; A. Gluba, Predictive Policing – eine Bestandsaufnahme. Hannover 2014; W.L. Perry, B. McInnis, C.C. Price, S.C. Smith, J.S. Hollywood, Predictive Policing. The Role of Crime Forecasting in Law Enforcement Operations. Santa Monica, CA 2013; C.D. Uchida, A National Discussion on Predictive Policing. Los Angeles, CA 2009.
(5) Vgl. R. Richardson, J. Schultz, K. Crawford, Dirty Data, Bad Predictions: How Civil Rights Violations Impact Police Data, Predictive Policing Systems, and Justice. In: New York University Law Review Online, February 13, 2019 (forthcoming), http://ssrn.com/abstract=3333423; A.G. Ferguson, Policing Predictive Policing. In: Washington University Law Review 94(5), 2017; J. Saunders, P. Hunt, J.S. Hollywood, Predictions Put into Practice. A Quasi-Experimental Evaluation of Chicago’s Predictive Policing Pilot. In: Journal of Experimental Criminology 12(3), 2016.
(6) Vgl. Statewatch, UK: Predictive policing in London: commercial interests trump accountability, Statewatch News Online, August 2014, http://database.statewatch.org/article.asp?aid=33881
(7) Vgl. https://www.ifmpt.de/project_zuerich.html, für Basel-Land – jeweils mit PRECOBS –. https://www.ifmpt.de/project_basel-land.html
(8) So schätzt die Firma Market Research Future (MRFR) in einem Forschungsbericht über den globalen Markt für vorhersagende Analytik, dass der Markt mit jährlich 21 Prozent zwischen 2017 und 2023 steigen wird. Der Umsatz wird bis zum Ende des Prognosezeitraums auf 13 Mrd. US-Dollar geschätzt. Statistics Market Research Consulting (SMRC) geht von mehr als doppelt so hohen Zahlen aus; so sei nach 5,72 Milliarden US-Dollar Umsatz in 2017 bis 2026 voraussichtlich mit 28,71 Milliarden US-Dollar (+19,6%) zu rechnen; der Bereich Strafverfolgung und Justiz dürfte dabei kaum eine relevante Rolle spielen.
(9) D. Gerstner, Predictive Policing. Theorie, Anwendung und Erkenntnisse am Beispiel des Wohnungseinbruchdiebstahls. In: S. Ellebrecht, S. Kaufmann, P. Zoche, (Un-)Sicherheiten im Wandel. Berlin 2019; vgl. Deutscher Bundestag, Predictive Policing in Deutschland (BT-Drs.19/1513 v. 03.04.2018); D. Gerstner, Predictive Policing in the Context of Residential Burglary: An Empirical Illustration on the Basis of a Pilot Project in Baden-Württemberg, Germany. In: European Journal for Security Research 3(2), 2018; Deutscher Bundestag, Tests, Recherchen und Marktsichtungen zur Einführung polizeilicher Vorhersagesoftware (BT-Drs.18/3703 v. 07.01.2015).
(10) B. Sheehey, Algorithmic Paranoia: The Temporal Governmentality of Predictive Policing. In: Ethics and Information Technology 21(1), 2019; vgl. D. Robinson & L. Koepke, Stuck in a Pattern: Early evidence on ›Predictive Policing‹ and Civil Rights. Washington D.C. 2016.
(11) M. Stroud, The Minority Report: Chicago’s new police computer predicts crimes, but is it racist? In: The Verge, 09.02.2014, https://www.theverge.com/2014/2/19/5419854/the-minority-report-this-computer-predicts-crime-but-is-it-racist
(12) S. Ackerman, No-fly list uses ›predictive assessments‹ instead of hard evidence, US admits. In: The Guardian (10.08.2015); Statewatch, Note on Big Data, Crime and Security: Civil Liberties, Data Protection and Privacy Concerns (03.04.2014), https://www.statewatch.org/analyses/no242-big-data.pdf; J. Florence, Making the No Fly List Fly: A Due Process Model for Terrorist Watchlists. In: The Yale Law Journal 115(8), 2006.
(13) N. Ross & K. Pease, Community Policing and Prediction. In: T. Williamson (ed.), The Handbook of Knowledge-Based Policing. Current Conceptions and Future Directions. West Sussex 2008.
(14) Vgl. etwa für Belgien: R. van Brakel, Belgium, https://algorithmwatch.org/en/automating-society-belgium/; für Dänemark: B. Alfter, https://algorithmwatch.org/en/automating-society-denmark/; für Italien: F. Chiusi, Italy, https://algorithmwatch.org/en/automating-society-italy/; für die Niederlande: G. van Til, Netherlands, https://algorithmwatch.org/en/automating-society-netherlands/; für Schweden: A. Kaun & J. Velkova, Sweden, https://algorithmwatch.org/en/automating-society-sweden/; für Spanien: K. Peiró, Spain, https://algorithmwatch.org/en/automating-society-spain/.
(15) Vgl. Institut d’aménagement et d’urbanisme de la région de lÎle-de-France, La Police Prédictive. Enjeux soulevés par l’usage des algorithmes prédictifs en matière desécurité publique. Paris 2019 sowie P. Perrot, What about AI in criminal intelligence? In: European Police Science and Research Bulletin 16/2017.
(16) Vgl. H. Couchman, Policing by Machine. Predictive Policing and the Threat to Our Rights. London 2019.
(17) Ähnlich im Fokus auf Wohnungseinbruchdiebstahl wie Deutschland, M. Dugato, S. Caneppele, S. Favarin, M. Rotondi, Prevedere i furti in abitazione. Trento 2015.
(18) Vgl. A. Adensamer & L.D. Klausner, Ich weiß, was du nächsten Sommer getan haben wirst: Predictive Policing in Österreich. In: juridikum 3/2019.
(19) Vgl. M. Leese, Predictive Policing in der Schweiz: Chancen, Herausforderungen, Risiken. In: C. Nünlist & O. Thränert (Hg.), Bulletin 2018 zur schweizerischen Sicherheitspolitik. Zürich 2018; T. Grossenbacher, Polizei-Software verdächtigt zwei von drei Personen falsch (05.04.2018), https://kops.uni-konstanz.de/bitstream/handle/123456789/30292/Gerth_0-284132.pdf?sequence=3 ; J. Gerth, Risk-Assessment bei Gewalt-und Sexualdelinquenz. Konstanz 2015, https://kops.uni-konstanz.de/bitstream/handle/123456789/30292/Gerth_0-284132.pdf?sequence=3 .
(20) Vgl. G. Bediroglu1, S. Bediroglu, H.E. Colak, T. Yomralioglu, A Crime Prevention System in Spatiotemporal Principles with Repeat, Near-Repeat Analysis and Crime Density Mapping: Case Study Turkey, Trabzon. In: Crime & Delinquency 64(14), 2018.
(21) The Law Society, Algorithms in the Criminal Justice System. London 2019.
(22) Ebd., S. 35.
(23) Vgl. für viele: S. Egbert, About Discursive Storylines and Techno-Fixes: The Political Framing of the Implementation of Predictive Policing in Germany. In: European Journal for Security Research, 3(2), 2018; T. Singelnstein, Predictive Policing: Algorithmenbasierte Straftatprognosen zur vorausschauenden Kriminalintervention. In: Neue Zeitschrift für Strafrecht 38(1), 2018 sowie B. Belina, Predictive Policing. In: Monatsschrift für Kriminologie und Strafrechtsreform 2/2016.
(24) Das ›Predictive Policing-System‹ RADAR-RiTE (Regelbasierte Analyse potentiell destruktiver Täter zur Einschätzung des akuten Risikos – islamistischer Terrorismus) basiert hier auf Fragen zu 73 Merkmalen, die sich etwa auf die Sozialisation oder die Haltung zu Gewalt beziehen. Auch sogenannte Schutzfaktoren wie familiäre Bindungen, gute Integration oder ein sicherer Arbeitsplatz werden abgefragt. Radar-iTE, das inzwischen in einer Version 2.0 vorliegt, soll den Sicherheitsbehörden helfen, ihre Überwachung auf besonders relevante Personen zu richten; im August 2019 lagen dem Bundeskriminalamt (BKA) zu insgesamt 497 Personen Bewertungsbögen vor. 186 Personen (37%) sind dem Bereich des hohen Risikos hinsichtlich der Begehung einer Gewaltstraftat zuzuordnen. 311 Personen (63%) dem Bereich des ›moderaten Risikos‹. Bei zwölf Personen (2%) wurde empfohlen, eine zukünftige Bewertung mittels RADAR-iTE zu überprüfen, vgl. Deutscher Bundestag, Zweijahresbilanz des Instruments RADAR-iTE (BT-Drs. 19/12401 v. 30.08.2019), S. 2.
(25) F. Jansen, Data Driven Policing in the Context of Europe (DATAJUSTICE Working Paper). Cardiff 2018, https://datajusticeproject.net/wp-content/uploads/sites/30/2019/05/Report-Data-Driven-Policing-EU.pdf
(26) »Neben KLB-operativ wird seit 2017 die auf der Software Gotham der Firma Palantir basierende Analyseplattform ›hessenDATA‹ eingesetzt, die u.a. für die vorausschauende Analyse von Terroranschlägen und ähnlichen Risikoszenarien im Deliktsbereich der Organisierten Kriminalität angewendet wird und damit deutliche Überlappungen mit RADAR-iTE aufweist«; vgl. Egbert & Krasmann (En 4), S. 31.
(27) Polizei Hessen, Prognose-Software gegen Wohnungseinbruchdiebstahl. KLB-operativ (Kriminalitätslagebild) landesweit im Einsatz (Pressemitteilung v. 30.10.2017).
(28) R. Chan, Here’s what you need to know about Palantir, the secretive $20 billion data-analysis company (19.07.2019), https://www.businessinsider.de/palantir-ice-explainer-data-startup-2019-7?r=US&IR=T ; Stephan Dörner, Wer ist der Kopf hinter dem Überwachungskonzern Palantir? (19.10.2018), https://www.gruenderszene.de/allgemein/palantir-alexander-karp-die-story;
(29) Vgl. Landtag Nordrhein-Westfalen, Wohnungseinbruchdiebstahl - A09 - 27.10.2016. Stellungnahme des Landeskriminalamtes Nordrhein-Westfalen. Düsseldorf 2016, S. 24ff.
(30) S. Egbert, Predictive Policing in Deutschland. Grundlagen, Risiken, (mögliche Zukunft). In: Strafverteidigervereinigungen (Hg.), Räume der Unfreiheit. Texte und Ergebnisse des 42. Strafverteidigertages Münster (2.-4. März). Berlin 2018.
(31) Vgl. Gewerkschaft kann Aus für Precobs-Software nachvollziehen (12.09.2019), https://www.stimme.de/suedwesten/nachrichten/pl/Gewerkschaft-kann-Aus-fuer-Precobs-Software-nachvollziehen;art19070,4245520
(32) Vgl. dazu etwa K. Briken, Ein verbetriebswirtschaftlichtes Gewaltmonopol? New Police Management im europäischen Vergleich. In: Kriminologisches Journal 46(4), 2014.
(33) Vgl. M. Corrales, M. Fenwick, H. Haapio (eds.), Legal Tech, Smart Contracts and Blockchain. Singapore 2019 sowie K. Jacob, D. Schindler, R. Strathausen (eds.), Liquid Legal. Transforming legal into a business savvy, information enabled and performance driven industry. Cham, CH 2017.
(34) Vgl. M. Hartung, M.-M. Bues, G. Halbleib (eds.), Legal Tech. How Technology is Changing the Legal World. München 2018; German version: Legal Tech– Die Digitalisierung des Rechtsmarkts. München 2018.
(35) E.E. Joh, Automated Seizures: Police Stops of Self-Driving Cars. In: New York University Law Review Online, forthcoming 2019, http://dx.doi.org/10.2139/ssrn.3354800
(36) Erläuternd schreibt Ewald, die »prozessrechtlichen und praktischen Konturen im Umgang mit digitalen Beweismitteln durch die Prozessbeteiligten, sei es beispielsweise bei der Herausgabe von Smartphone-Images im Rahmen des Akteneinsichtsrechts oder bei der Überprüfung der Zulässigkeit, Zuverlässigkeit und des Beweiswertes digitaler Beweismittel, sind erst im Entstehen begriffen«, vgl. U. Ewald, Digitale Beweismittel und neue Wege der Strafverteidigung. In: Strafverteidigervereinigungen (Hg.), Räume der Unfreiheit. Texte und Ergebnisse des 42. Strafverteidigertages Münster (2.-4. März). Berlin 2018, S. 269.
(37) European Commission for the Efficiency of Justice (CEPEJ), Guidelines on how to Drive Change towards Cyberjustice. Stock-taking of Tools Deployed and Summary of Good Practices. Strasbourg 2016.
(38) Vgl. etwa die Vorschläge des EU-Parlaments und des EU- Rats zur digitalen Erhebung, Herausgabe und Sicherung von Beweismitteln, COM(2018) 225 final, 17.04.2018 und COM(2018)0226 final, 17.04.2018.
(39) Zit. n: Paris Innovation Review, Predictive Justice: When Algorithms Pervade the Law (09.06.2017), http://parisinnovationreview.com/articles-en/predictive-justice-when-algorithms-pervade-the-law. Doctrine sammelt, zentralisiert und verkauft mit seiner juristischen Suchmaschine Rechtsinformationen.
(40) Zit. n. Paris Innovation Review, Predictive Justice: When Algorithms Pervade the Law (09.06.2017), http://parisinnovationreview.com/articles-en/predictive-justice-when-algorithms-pervade-the-law.
(41) Dabei wird eine Kombination aus Schlüsselwortsuche und wiederholendem Computerlernen verwendet, um die Relevanz jedes einzelnen Dokuments zu bewerten; vgl. http://go.recommind.com/hubfs/BCA_Trading_UK_PC_Order_2016_EWHC_1464_CH_5-17-2016.pdf
(42) Vgl. https://epic.org/algorithmic-transparency/crim-justice/.
(43) M. Oswald, J. Grace, S. Urwin, G.C. Barnes, Algorithmic risk assessment policing models: lessons from the Durham HART model and ›experimental‹ proportionality. In: Information & Communications Technology Law, 27(2), 2018.
(44) K.S. Gustafson, Cheating Welfare: Public Assistance and the Criminalization of Poverty. New York 2011. V. Eick, B. Grell, M. Mayer, J. Sambale, Nonprofit-Organisationen und die Transformation lokaler Beschäftigungspolitik. Münster 2004; J. Gilliom, Overseers of the Poor. Chicago 2001.
(45) M. Spielkamp, Wenn Algorithmen über den Job entscheiden. In: Die Presse v. 20.07.2019, https://algorithmwatch.org/wenn-algorithmen-ueber-den-job-entscheiden/
(46) Vgl. https://wetten.overheid.nl/BWBR0013060/2019-07-08
(47) Vgl. zu britischen Herausforderungen und Folgerungen, https://www.lawsociety.org.uk/support-services/research-trends/algorithms-in-the-justice-system/.
(48) Zit.n. Les enjeux de la justice prédictive. In: La Semaine Juridique (Édition Générale) 31(1-2), 2017.