Strafverfahren mit KI beschleunigen?
Verfahrens- und verfassungsrechtliche Bedenken
Von Phoebe Tsorpatzidis
Für Ermittlungsbehörden erscheint KI verlockend: große Datenmengen sortieren und analysieren. Doch die Nutzung steht im Widerspruch zu zentralen Verfahrensgrundsätzen. Welche das sind, was sich aus einem anderen Urteil lernen lässt und was internationale Expert*innen empfehlen.
Ermittlungsbehörden stehen angesichts des digitalen Zeitalters vor Herausforderungen. Sie sind aufgrund enormer Datensätze mit Terabyte an digitalen Asservaten konfrontiert. Zur leichteren Auswertung dieser Datenmengen bedienen sich verschiedene Akteure zur Vorbereitung auf mögliche Prozesse bereits forensischer Datenanalyse-Tools (im Folgenden “forensische KI-Tools”), die beispielsweise mittels Suchbegriffen relevante Dokumente vorsortieren, um die Datenmenge zu reduzieren. Mit entsprechender Software können Daten extrahiert, analysiert und präsentiert werden.(1)
Es erscheint daher wenig überraschend, dass sich nun auch Strafverfolgungsbehörden mit der Möglichkeit der Unterstützung durch KI-basierte Systeme auseinandersetzen.(2) Wie Prof. Dr. Christian Rückert, Inhaber des Lehrstuhls für Strafrecht, Strafprozessrecht und IT-Strafrecht an der Universität Bayreuth, zu KI-gestützter Gesichtserkennung im Strafverfahren hervorhebt, lassen sich durch Technik massive Datenmengen in kürzester Zeit verarbeiten, wodurch unzählige Ermittlungsansätze entstehen.(3) Technische Hilfsmittel im Strafverfahren zu verwenden, ist besonders reizvoll, da die Justiz derart überlastet ist, dass ein Rückstau bei zeitlich sensiblen Verfahren entstanden ist. KI-Systeme erscheinen als Retterin des Beschleunigungsgrundsatzes.
Es wäre jedoch verfehlt, die Verwendung forensischer KI-Tools mit der Argumentation des Beschleunigungsgrundsatzes bedenkenlos zu akzeptieren, ohne die weiteren strafprozessualen Grundsätze zu beachten. Dies stünde sowohl im Widerspruch zur am 01.08.2024 in Kraft getretenen KI-Verordnung als auch zur höchstrichterlichen Rechtsprechung. In diesem Beitrag werden forensische KI-Tools begrifflich und rechtlich eingeordnet (A.). Darauf folgt eine Ausführung zu verfahrens- und verfassungsrechtlichen Bedenken bei der Nutzung solcher Tools (B.). Abschließend werden rechtliche Erwägungen und Lösungsansätze internationaler Akteure aufgezeigt (C.) und die Ergebnisse zusammengefasst (D.).
A. FORENSISCHE DATENANALYSE - TOOLS ALS HILFSMITTEL IM ERMITTLUNGSVERFAHREN
1. Wie funktionieren forensische Datenanalyse-Tools?
Zuerst muss determiniert werden, ob es sich bei forensischen KI-Tools um regelbasierte Expertensysteme (mit Wenn-Dann-Regeln) oder maschinell lernende Systeme (ML- oder auch »Black Box«-Systeme) handelt.(4) Diese Unterscheidung ist wichtig, da sie rechtliche Implikationen hat.
Regelbasierte Systeme können ein breites Spektrum potenziell komplexer Probleme lösen, indem sie relevante, von Experten vordefinierte Regeln auswählen und die Ergebnisse in geeigneter Weise kombinieren.(5) Ihre Entscheidung wird nur im Rahmen des Vorgegebenen getroffen.(6) Bei der eDiscovery – also im Rahmen digitaler Ermittlungsmethoden – bedeutet dies beispielsweise, dass dem System Schlüsselwörter genannt werden, um relevante Dokumente auszuwählen. Dabei kann das System seine Schlussfolgerungen darlegen, indem es den angewendeten Regelprozess in verständlicher Sprache erklärt.(7) Vorteile dieser Systeme sind die Transparenz und die Nachvollziehbarkeit ihrer Entscheidungen.(8)
Forensische KI-Tools, die auf ML-Systemen basieren, können beispielsweise solche sein, die technology-assisted review (TAR) nutzen. Im Vergleich zu regelbasierten Systemen werden relevante Dokumente mithilfe dieses Tools dadurch ausgewählt, dass zunächst eine menschliche Entscheidung über die Relevanz der Dokumente getroffen wird und die Software auf Grundlage einer automatisierten Analyse der menschlichen Entscheidung lernt, welche Dokumente wie zu kategorisieren sind.(9)
Probleme ergeben sich daraus, dass Maschinen nicht wie Menschen lernen und ihre Kategorisierungs-Entscheidungen deshalb auch nicht wie Menschen begründen können.(10) Der viel diskutierte »Black Box«-Effekt – also Undurchsichtigkeit und Nichtnachvollziehbarkeit der internen Entscheidungsprozesse – stellt Entwickler*innen wie Nutzer*innen vor Probleme.(11)
Die gängigsten Anbieter*innen forensischer Software werben mit ML-Systemen, beziehungsweise Add-Ons oder Tools (im Weiteren kurz: forensische KI-Tools).(12) Rein regelbasierte Systeme sind weniger reizvoll, da das Füttern mit Parametern zeitaufwendig ist und somit die Kosten- und Arbeitsersparnis oftmals in keinem Verhältnis stehen.(13) Darüber hinaus geraten diese Systeme an ihre Grenzen, da sie nur Konstellationen berücksichtigen können, die bei ihrer Programmierung antizipiert wurden.(14)
Es kann also festgehalten werden, dass forensische KI-Tools heutzutage nicht mehr rein regelbasiert strukturiert sind, sondern vielmehr Elemente von ML-Anwendungen beinhalten und demnach alle Vor- und Nachteile dieser für sich beanspruchen.
2. Klassifizierung als Hochrisiko-KI-System
Bei einem forensischen KI-Tool (mit ML-Systemen) handelt es sich um ein KI-System im Sinne des Art. 3 Nr. 1 der 2024 in Kraft getretenen KI-Verordnung.(15) Diese weit gefasste und vage Definition bestimmt, dass hierunter ein maschinengestütztes System zu verstehen ist, das “für einen (…) autonomen Betrieb ausgelegt ist, (…) anpassungsfähig sein kann und aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben, wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, (…) die physische oder virtuelle Umgebungen beeinflussen können”.(16)
Bei der Software handelt es sich weder um die heiß diskutierte predictive policing KI, deren Output Vorhersagen sind,(17) noch um KI-Modelle zur Unterstützung der richterlichen Entscheidungsfindung,(18) die beide eindeutig unter diese Definition zu subsumieren sind. Doch manche forensischen KI-Tools, die im Strafverfahren eingesetzt werden, erfüllen die Definition. Das zeigt sich etwa, wenn sie auf die Relevanzeinstufung digitaler Asservate angewandt wird. Forensische KI-Tools sind Softwarelösungen, also maschinengestützte Systeme, die durch die automatisierte Analyse digitaler Daten – dem sogenannten autonomen Betrieb – Ermittlungen unterstützen, indem sie Beweismittel bereitstellen und benutzerfreundlich präsentieren. Dies stellt eine Ableitung von Ausgaben aus Eingaben dar und ermöglicht es den Systemen, Einfluss auf physische oder virtuelle Umgebungen zu nehmen. Diese Systeme können durch verändertes Verhalten infolge vorheriger menschlicher Entscheidungen oder durch die Hinzufügung neuer Daten lernfähig, das heißt anpassungsfähig, sein.
Selbstredend gehen je nach Tätigkeitsfeld nicht von allen KI-Systemen die gleichen Gefahren aus, weshalb der europäische Gesetzgeber KIs in verschiedene Risikostufen kategorisiert hat.(19) KI-Systeme, die zur Strafverfolgung eingesetzt werden, wurden als höchst riskant eingestuft, um Nachteile zu vermeiden, das Vertrauen der Öffentlichkeit zu erhalten sowie die Rechenschaftspflicht und einen wirksamen Rechtsschutz zu gewährleisten.(20) Auch wenn Staatsanwaltschaften KI-Systeme einsetzen, um zu bewerten, wie verlässlich Beweismittel sind, oder um Straftaten zu verfolgen, gelten diese als Hochrisiko-KI-Systeme (Art. 6 Abs. 2 i.V.m. Anhang III Nr. 6 c) KI-VO).(21) Der Einsatz erhöht die Anforderungen an die Dokumentation-, Aufsicht- und Transparenzpflichten (vgl. Art. 8 ff. KI-VO).(22)
B. VERFASSUNGS- UND VERFAHRENSRECHTLICHE BEDENKEN
Die Einstufung als Hochrisiko-System erschließt sich aus den durch die Anwendung eines forensischen KI-Tools verschiedenen betroffenen verfahrens- und verfassungsrechtlichen Grundsätzen.
1. Legalitätsgrundsatz nach §§ 152 Abs. 2, 160 StPO
Gemäß dem in §§ 152 Abs. 2, 160 StPO verankerten Legalitätsgrundsatz sind Behörden verpflichtet, im Ermittlungsverfahren das gesamte Untersuchungsmaterial zur Bestimmung oder Widerlegung des Anfangsverdachts umfassend zu analysieren.(23) Diese Erforschungspflicht darf durch fiskalische Erwägungen nicht beeinträchtigt werden; das heißt, personelle und sachliche Mittel sind zur Verfügung zu stellen, um diese Pflicht erfüllen zu können.(24)
Wie bereits erwähnt, kann die Verwendung von KI insbesondere die Sichtung von Beweismitteln beschleunigen. Es liegt somit auf der Hand, dass Ermittlungsbehörden den Einsatz von KI im Sinne der beschuldigten Person und des Beschleunigungsgrundsatzes nachvollziehbar begründen können. Durch den Einsatz könnte der belastende Prozess verkürzt und die beschuldigte Person früher be- oder entlastet werden. Das allein reicht aber zur Rechtfertigung des Einsatzes nicht aus. Die Verwendung von forensischen KI-Tools kann zwar eventuell zu einem kürzeren, jedoch nicht zwangsläufig einem richtigeren Verfahren führen.
Die Sichtung digitaler Asservate mit dem Argument des nicht zu bewältigenden Umfangs sowie Personalmangels an KI auszulagern, steht im Widerspruch zum Legalitätsgrundsatz, da nicht sichergestellt werden kann, dass alle relevanten Beweismaterialien gesichtet werden. Und es stünde dem Ziel, den Arbeitsaufwand zu reduzieren, entgegen, wenn neben der automatisierten Analyse und Vorselektion der KI ein*e Behördenmitarbeiter*in das gesamte Untersuchungsmaterial erneut sichten müsste. Logischer wäre es also, KI zu verwenden, um die Datenmasse zu verschlanken, die dann von einem Menschen untersucht wird.
Doch auch bei diesem Ansatz müssen zwei Aspekte berücksichtigt werden. Zum einen kann dabei nicht sichergestellt werden, dass be- und entlastende Beweise gleichermaßen berücksichtigt werden. Denn die KI stellt nur die Daten zusammen, nach denen Menschen mit Suchbegriffen fragen. Solche Suchbegriffe, die etwa ermittelnde Polizeibeamt*innen eingeben, stehen in der Regel im Zusammenhang mit strafrechtlich relevantem Verhalten. Umgekehrt ist es schwierig, sich entlastende Begriffe, außer potenziell den des Alibis, vor Augen zu führen. Es bedarf einer gewissen Fantasie, um einer KI den Auftrag zu geben, digitale Beweismittel zu selektieren, die beweisen sollen, dass die beschuldigte Person an Tag X nicht am Tatort Y war und die Tat Z nicht begangen hat. Es steht somit zu befürchten, dass durch die Datenverschlankung ausgerechnet die Beweismittel herausgefiltert werden, die zum Entfallen des hinreichenden Tatverdachts führen würden. Anders als bei der konventionellen Sichtung würden Beamt*innen nach Nutzung von KI womöglich gar nicht mehr alle Beweismittel sehen.
Zweitens birgt ein unreflektiertes Vertrauen in KI die Gefahr, dass Ermittlungen in die falsche Richtung geleitet werden.(25) Bei der Sichtung der von KI vorselektierten Daten vertraut die Ermittlungsperson (potenziell auch unterbewusst) darauf, dass die ihr präsentierten Beweismittel die (einzig) Relevanten sind. Werden unter diesen keine entlastenden Beweise gefunden, folgt die denklogische Konsequenz, dass es keine entlastenden Beweise gibt. Doch dieser Eindruck kann trügen; das volle Vertrauen in KI ist gefährlich. Werden in der verschlankten Datenmasse keine entlastenden Beweise gefunden, heißt das nicht, dass es keine gibt, sondern nur, dass es in der Vorauswahl, die die KI aus den Daten getroffen hat, keine gibt.
Nur die konsequente Durchführung des Legalitätsgrundsatzes garantiert die Gleichheit vor dem Gesetz (Art. 3 Abs. 1 GG), strafrechtliche Gerechtigkeit im Einzelfall und somit die Rechtsstaatsgarantie.(26) Eine Verkürzung dieser Erforschungspflicht ist höchst bedenklich und jedenfalls ohne gesetzliche Grundlage nicht vorstellbar.
2. Fair-Trial-Prinzip nach Art. 6 Abs. 1 EMRK
Auch dem in Art. 6 Abs. 1 EMRK normativ verankerten Fair-Trial-Prinzip steht die Verwendung von forensischen KI-Tools zur Auswertung digitaler Asservate entgegen. Ausschlaggebender Kritikpunkt ist die mangelnde Waffengleichheit hinsichtlich des Zugangs zum Mittel.
Sowohl die Justiz als auch die Juristerei im Allgemeinen hinken bei neuer Technologie bekanntlich hinterher. Das muss sich dringend ändern, aber nicht zulasten von Beschuldigten. Technologien wie KI einzusetzen, ist angesichts der enormen Datenmassen und des staatlichen Strafverfolgungsinteresses offensichtlich reizvoll, doch das Interesse der beschuldigten Person muss ebenso Berücksichtigung finden. Würden Bedenken bezüglich des Legalitätsgrundsatzes durch gesetzliche Regelungen beseitigt werden, würde das Fair-Trial-Prinzip und das damit einhergehende Gebot der Waffengleichheit weiterhin erfordern, dass alle Parteien Zugang zu denselben forensischen KI-Tools erhalten und diesen Daten zuführen können.(27)
Im Gegensatz zur Ermittlungsbehörde, deren Ermittlungsauftrag aufgrund ihrer Erforschungspflicht weitreichender ist (vgl. § 160 Abs. 2 StPO), sucht die Verteidigung bei der Datensichtung und Analyse im Zweifel »nur« nach entlastenden Beweisen. Demgemäß muss sie selbstverständlich nicht spiegelbildlich mit den Mitteln der Ermittlungsbehörden ausgestattet werden.(28) Selbst wenn ein gleicher Zugang zu KI-Tools gewährleistet wäre, ergäbe sich immer noch kein finanzielles oder personelles Gleichgewicht. Denn der oder die Strafverteidiger*in arbeitet regelmäßig alleine, polizeiliche Ermittlungseinheiten in großen Teams. Dieses staatlicherseits gewollte Ungleichgewicht im Strafprozess würde durch die einseitige Verwendung technischer Hilfsmittel wie KI bis ins Unzumutbare vertieft. Es wäre falsch, die Verteidigung von Datenquellen oder Anwendungen auszuschließen. Wenn die Verteidigung im Gegensatz zur Ermittlungsbehörde gezwungen ist, eine manuelle Auswertung riesiger Datenmengen vorzunehmen, würde das Recht auf Akteneinsichtsrecht ins Leere laufen.(29)
Es handelt sich bei forensischen KI-Tools um spezialisierte Software, deren Lizenz sehr teuer ist.(30) Hinzu kommen Kosten für Schulungen sowie Kosten für geeignete Hardware. Da digitale Asservate sich mit Software schneller und mit geringerem Personalaufwand sichten lassen, mag diese Rechnung für Ermittlungsbehörden aufgehen. Gleiches gilt jedoch nicht für einzelne Anwält*innen.
Es bleibt festzuhalten: Werden forensische KI-Tools ohne Rechtfertigungsgrundlage genutzt, droht die Verletzung des Fair-Trial-Prinzips, was die beschuldigte Person, in ihren Grundrechten aus Art. 103 Abs. 1, Art. 3 Abs. 1 und Art. 20 Abs. 3 GG verletzt.
3. Grundsatz des effektiven Rechtsschutzes nach Art. 19 Abs. 4 und der ordnungsgemäßen Aktenführung nach Art. 20 Abs. 3 GG
Gemäß § 170 Abs. 1 StPO klagt die Staatsanwaltschaft an, wenn die Ermittlungen genügend Anlass zur Erhebung der öffentlichen Klage bieten. Aus der chronologisch zu führenden Ermittlungsakte ergibt sich, worin die Staatsanwaltschaft diesen Anlass sieht. Durch das Rechtsstaatsprinzip nach Art. 20 Abs. 3 GG ist die Verwaltung zur ordnungsgemäßen Aktenführung verpflichtet,(31) da nur so eine nachvollziehbare Grundlage für eine behördliche Entscheidung entsteht und die gebotene Transparenz gesichert ist.(32) Zudem verpflichtet die Rechtsschutzgarantie des Art. 19 Abs. 4 GG die Behörde zur objektiven Dokumentation des bisherigen wesentlichen sachbezogenen Geschehensablaufs.(33)
Wie bereits erläutert, entsteht bei der Nutzung von ML-basierten forensischen KI-Tools der sogenannte »Black Box«-Effekt, der bei strafrechtlichen Ermittlungen nicht hinnehmbar ist, da in diesem grundrechtssensiblen Bereich ordnungsgemäße Aktenführung und Nachvollziehbarkeit von Behördenentscheidungen besonders wichtig sind. Die Faktoren, die den Ausgang eines Verfahrens beeinflussen, müssen für alle Beteiligten nachvollziehbar sein.(34) Die Transparenz erfordert Zugang zu sachdienlichen Informationen (zum Beispiel über die Funktionsweise des automatisierten Systems, das den Beweis erbracht hat) und die Interpretierbarkeit dieser Informationen.(35) Auch um dieser mit KI verbundenen Gefahr der Intransparenz entgegenzuwirken, stellt die KI-Verordnung erhöhte Anforderungen an die Dokumentations-, Informations- und Aufsichtspflichten bei der Nutzung von Hochrisiko-KI-Systemen.(36)
Dennoch kann nicht sichergestellt werden, dass der interne Prozess des KI-Systems bei der Vorselektion und Analyse großer Datenmengen in der Praxis nachvollziehbar dokumentiert wird, sodass Zweifel an der Entscheidung ausgeräumt werden können, zumal das System in einer Hauptverhandlung nicht zu seinem Entscheidungsprozess befragt werden kann. Es ist somit davon auszugehen, dass Art. 19 Abs. 4 und Art. 20 Abs. 3 GG durch die Verwendung solcher KI-Tools tangiert sind und bei der Rechtfertigung berücksichtigt werden müssen.
4. Das allgemeine Persönlichkeitsrecht aus Art. 2 Abs. 1 und Art. 1 Abs. 1 GG
Schon länger beschäftigen KI-Systeme als Hilfsmittel der Polizei die Rechtswissenschaft. Der Bundesbeauftragte für Datenschutz und die Informationsfreiheit hat dazu bereits 2022 das Thesenpapier »Einsatz von Künstlicher Intelligenz im Bereich der Strafverfolgung und Gefahrenabwehr« veröffentlicht. Laut These 2 könne der Einsatz von KI nicht auf polizeiliche Generalklauseln gestützt werden.(37) Vielmehr erfordere die Nutzung grundsätzlich eine spezifische gesetzliche Regelung.(38) Die Reichweite des Gesetzesvorbehalts wäre im Einzelfall angesichts der konkreten Ausprägung der jeweiligen KI-Technologie zu beurteilen.
Diese These wurde durch eine Entscheidung des Bundesverfassungsgerichts aus dem Jahr 2023 zum Programm „Gotham“ vom Software-Unternehmen Palantir bestätigt. Das Gericht beschäftigte sich mit landesrechtlichen Ermächtigungen der Polizei für automatisierte Datenanalyse im Polizeirecht, speziell mit § 25a HSOG und § 49 des HambPolDVG, die eine Rechtsgrundlage schafften, bisher unverbundene, automatisierte Dateien und Datenquellen in Analyseplattformen zu vernetzen und die vorhandenen Datenbestände durch Suchfunktionen systematisch zu erschließen, um die polizeiliche Aufgabenerfüllung auf diese Weise zu erleichtern und zu verbessern.(39) Ziel der Vorschriften war, in begründeten Einzelfällen zur vorbeugenden Bekämpfung schwerer Straftaten oder zur Abwehr von Gefahren für bestimmte Rechtsgüter gespeicherte personenbezogene Daten mittels automatisierter Anwendung im Rahmen einer Datenanalyse (Hessen) oder einer Datenauswertung (Hamburg) weiterzuverarbeiten.(40)
Das Bundesverfassungsgericht erklärte die Normen für verfassungswidrig, da sie den Eingriff in das Recht auf informationelle Selbstbestimmung nach Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 GG nicht ausreichend rechtfertigten. Die verfassungsrechtlichen Anforderungen an die Rechtfertigung einer automatisierten Datenanalyse oder -auswertung würden sich nach der konkreten Reichweite der Befugnis richten und seien entsprechend variabel. Das Gericht befand, dass sie angesichts der Ausgestaltung der angegriffenen Vorschriften vorliegend streng seien.
Mit der automatisierten Auswertung gespeicherter Daten erlaubten der hessische und hamburgische Gesetzgeber eine weitere Nutzung früher erhobener Daten über den ursprünglichen Anlass hinaus. Das Gericht betonte, dass der Grundrechtseingriff nicht nur in der weiteren, zusammenführenden Verwendung vormals getrennter Daten, sondern darüber hinaus in der Erlangung besonders grundrechtsrelevanten neuen Wissens, das durch die automatisierte Datenanalyse oder -auswertung geschaffen werden kann, liege. Dreh- und Angelpunkt ist die Annahme des Gerichts, dass die automatisierte Datenanalyse oder -auswertung darauf gerichtet sei, neues Wissen zu erzeugen. Beispielsweise könne softwaregestützt das Bild einer Person vervollständigt werden, wenn Daten und algorithmisch errechnete Annahmen über Beziehungen und Zusammenhänge aus dem Umfeld der Betroffenen einbezogen werden.
Durch die Nutzung solcher Software wäre es möglich, Zusammenhänge zwischen Personen, Personengruppierungen, Institutionen, Organisationen, Objekten und Sachen herzustellen, unbedeutende Informationen und Erkenntnisse auszuschließen, eingehende Informationen bekannten Sachverhalten zuzuordnen sowie die gespeicherten Daten statistisch auszuwerten. Hierdurch könnten neue Verdachtsmomente erstmals durch die Auswertung erzeugt werden. Relevant war für das Bundesverfassungsgericht auch, dass komplexe algorithmische Systeme sich im Verlauf des maschinellen Lernprozesses immer mehr von der ursprünglichen menschlichen Programmierung lösen und die Ergebnisse immer schwerer nachzuvollziehen sein könnten. Dann drohe, dass die staatliche Kontrolle über diese Anwendung verloren gehe.
Das Bundesverfassungsgericht beschäftigte sich augenscheinlich nicht mit der Nutzung forensischer KI-Tools zur Sichtung von Beweismitteln durch Ermittlungsbehörden in Strafverfahren. Doch die vom Bundesverfassungsgericht formulierten Grundsätze sind darauf anwendbar. Durch den Einsatz von KI zum Sortieren und Verschlanken von Daten können neue Verbindungen hergestellt und Schlussfolgerungen gezogen werden, die den Ermittlungsbehörden zuvor verborgen geblieben sind. Es kann sogar ein komplettes Persönlichkeitsprofil erstellt werden. Der Einsatz forensischer KI-Tools berührt also den Schutzbereich des allgemeinen Persönlichkeitsrechts und bedarf somit einer gesetzlichen Grundlage, die sich entsprechend der Eingriffsintensität ausgestaltet.
C. RECHTLICHE ERWÄGUNGEN UND LÖSUNGSANSÄTZE INTERNATIONALER AKTEURE
Die Vor- und Nachteile technischer Hilfsmittel im Strafverfahren werden seit geraumer Zeit auch von der internationalen Gemeinschaft diskutiert. Hierzu wurden sowohl soft als auch hard law Instrumente herausgearbeitet. Das von Deutschland ratifizierte Übereinkommen zu Computerkriminalität stammt bereits aus dem Jahr 2001 und legt die Befugnisse für den Einsatz technischer Hilfsmittel, beispielsweise forensische Tools zur Ermittlung digitaler Spuren und Beweise im Strafverfahren (Art. 14), fest.(41) In Art. 15 werden die Bedingungen, unter denen solche Mittel genutzt werden können, unter Betonung der Notwendigkeit des angemessenen Schutzes der Menschenrechte und Freiheiten aufgezeigt. Vertragsparteien müssen sicherstellen, dass für die Schaffung, Umsetzung und Anwendung der Befugnisse und Verfahren diese Bedingungen, insbesondere auch der Grundsatz der Verhältnismäßigkeit, gewahrt sind.
Bedenken bezüglich der Verfahrensgrundsätze und des Einsatzes von KI wird darüber hinaus mithilfe von Ethik-Richtlinien begegnet. Die Europäische Kommission für die Wirksamkeit der Justiz hat eine »Europäische Ethik-Charta über den Einsatz künstlicher Intelligenz in der Justiz und in ihrem Umfeld« herausgearbeitet. Die Charta enthält einen Prinzipienrahmen, der politischen Entscheidungsträger*innen, Mitgliedern der Legislative und Jurist*innen beim Umgang mit der sich rasch entwickelnden KI als Leitfaden in innerstaatlichen Justizverfahren dient.(42)
Das erste Prinzip, der »Grundsatz der Achtung der Grundrechte«, verlangt auch bei Nutzung von KI ein faires Verfahren und Waffengleichheit.(43) Zur ethischen Nutzung muss auch »algorithmic fairness« beachtet werden, das heißt, durch normierte Standards muss die Richtigkeit, Transparenz und Gültigkeit von Analysen gewahrt werden.(44)
Der vom Ministerkomitee des Europarats mandatierte Ad-hoc-Ausschuss für künstliche Intelligenz hat in seiner »Feasability Study« das Risiko der Undurchsichtigkeit bei der Nutzung von KI thematisiert und ferner bezüglich des Fair-Trial-Prinzips vorgeschlagen, dass Angriffs- sowie Einsichtsrechte in aus KI gewonnene Beweismittel gewährt werden.(45) Ferner ist zu beachten, dass auch bei vorbildlicher Gewährung von Transparenz, aufgrund der technischen Komplexität von KI die Wahrnehmung gewährter Angriffs- und Einsichtsrechte schwer umsetzbar ist, da es für die Verteidigung potenziell nur unter Zuhilfenahme von Expertenwissen möglich ist, Beweise, die aus KI resultieren, detailliert anzugreifen.(46)
Die genannten Instrumente und Vorschläge zur ethischen Nutzung von KI insbesondere in der Strafrechtspflege stellen nur einen Ausschnitt der ausgearbeiteten Konzepte dar und haben sicherlich auch ihren Einfluss auf die neue KI-Verordnung gehabt. Viele Akteure haben Einwände erhoben beziehungsweise Vorschläge gemacht, um das Recht auf ein faires Verfahren zu verteidigen.
D. ZUSAMMENFASSUNG
Diese verfahrens- und verfassungsrechtlichen Bedenken von Wissenschaft, Justiz und internationalen Expertengruppen sollten vor dem Einsatz von forensischen KI-Tools durch Ermittlungsbehörden Beachtung finden. KI-Innovationen entwickeln sich rapide, in der digitalen Forensik hat KI längst ihren Platz gefunden. Eine bedenkenlose Nutzung von KI-Tools in der Strafverfolgung ist aufgrund der Einordnung als Hochrisiko-KI-Systeme nicht möglich. Die Rechtfertigung, dass durch die Verwendung dieser Tools das Verfahren für alle Beteiligten beschleunigt wird und das zu einer Win-Win-Situation führe, vermag aufgrund der rechtsstaatlichen Einbußen und Nachteile für beschuldigte Personen nicht zu überzeugen. So verführerisch KI zur Beschleunigung von Verfahren sein mag, muss angesichts der vielen betroffenen Rechte, der KI-Verordnung und der höchstrichterlichen Rechtsprechung Vorsicht walten. Es wäre notwendig, dass bei der Schaffung etwaiger Rechtsgrundlagen die ethischen Implikationen von KI Einfluss fänden.
Phoebe Tsorpatzidis absolvierte einen LL.M. mit Fokus auf Kriminologie und Menschenrechte. Während ihres Referendariats in Brandenburg, Berlin und London setzte sie sich mit Antidiskriminierungsrecht und Völkerrecht auseinander.
(1) Zum forensischen Prozess »SAP« (Secure, Analyse, Present) siehe etwa Pollach, Die sog. Blackbox-Problematik bei IT-Forensiktools, in Rückert u. a., Erlanger Cyber2 Crime Tag 2020: IT-Forensik und Strafprozessrecht, 67 ff., kripoz.de/wp-content/uploads/2021/01/rueckert-wuest-tagungsbericht-erlanger-cyber-2-crime-tag-2020.pdf; zur Funktionsweise des Tools »EnCase« vgl. Bhosale, Evidence Recovery using EnCase and FTK in Forensic Computing Investigation, IJSRCSE 9(4) 2021, 9.
(2) Bundesbeauftragter für den Datenschutz und die Informationsfreiheit (BfDI), Thesenpapier des Bundesbeauftragten für den Datenschutz und die Informationsfreiheit zum Thema: Einsatz von Künstlicher Intelligenz im Bereich der Strafverfolgung und Gefahrenabwehr, www.bfdi.bund.de/SharedDocs/Downloads/DE/Konsultationsverfahren/2_KI-Strafverfolgung/Positionspapier-KI-Erstversion.pdf; Staffler/Jany, Künstliche Intelligenz und Strafrechtspflege – eine Orientierung, ZIS 4 2020, 164, www.zis-online.com/dat/artikel/2020_4_1357.pdf
(3) Rückert, Die Technik ist da, das Recht (noch) nicht, LTO 25.04.2025, verfügbar unter: www.lto.de/recht/hintergruende/h/kuenstliche-intelligenz-gesichtserkennung-strafverfahren-strafverteidiger-strafverfolgung
(4) Hier reicht eine oberflächliche Unterscheidung, um eine System-Art für die weiteren Ausführungen zugrunde zu legen; Bayerisches Staatsministerium der Justiz (StMJ), Grundlagenpapier zur 74. Jahrestagung der Präsidentinnen und Präsidenten der Oberlandesgerichte, des Kammergerichts, des Bayerischen Obersten Landesgerichts und des Bundesgerichtshofs, 2022, 40 f., www.justiz.bayern.de/media/images/behoerden-und-gerichte/oberlandesgerichte/nuernberg/einsatz_von_ki_und_algorithmischen_systemen_in_der_justiz.pdf
(5) Hayes-Roth, Rule-based systems, CACM 28(9) 1985, 921, www.cs.oswego.edu/~mgrzenda/CSC466/Paper%20Sources/RULE-BASED%20SYSTEMS.pdf
(6) Steege, Algorithmenbasierte Diskriminierung durch Einsatz von Künstlicher Intelligenz, MMR 22(11) 2019, 715.
(7) Hayes-Roth, a.a.O.
(8) Electronic Discovery Reference Model, The Use of Artificial Intelligence in eDiscovery, 2, edrm.net/wp-content/uploads/dlm_uploads/2021/02/20210203-EDRM-AI-Paper-v-14.pdf
(9) Ebd.; Grossman/Cormack, Technology-Assisted Review in E-Discovery Can Be More Effective and More Efficient Than Exhaustive Manual Review, JOLT 17 (2011), 3, scholarship.richmond.edu/cgi/viewcontent.cgi
(10) So Rademacher/Perkowski, Staatliche Überwachung, neue Technologien und die Grundrechte, JuS 8 2020, 716.
(11) Zum Thema im Zusammenhang mit richterlicher Unabhängigkeit etwa das StMJ, a.a.O., 14 f.; zum »Black Box«-Effekt im Zusammenhang mit Strafverfolgung siehe Quezada-Tavárez/Vogiatzoglou/Royer, Legal Challenges in Bringing AI Evidence to the Criminal Courtroom, New J. Eur. Crim. L. 12 (4) 2021, 540 und Momsen, Implications and Limitations of the Use of AI in Criminal Justice in Germany, KriPoZ 1 (2023), 15 f., kripoz.de/2023/01/19/implications-and-limitations-of-the-use-of-ai-in-criminal-justice-in-germany/
(12) Relativity, einer der größten Anbieter, wirbt mit »assisted review«, help.relativity.com/Server2023/Content/Relativity/Assisted_Review/Assisted_Review.htm; Anbieter Everlaw verwendet computer-assisted review (CAR) und TAR, www.everlaw.com/blog/ediscovery-best-practices/predictive-coding-in-the-world-of-ediscovery/; Anbieter MagnetForensics wirbt mit Tools wie »Magnet.AI«, www.magnetforensics.com/resources/magnet-ai-a-minute-with-magnet/; Cellebrite zur Software Cellebrite Pathfinder: »Cellebrite Pathfinder streamlines your investigative process, automates data ingestion, and uses advanced machine learning to analyze and visualize data from mobile, cloud, computer, CDR, and video sources«, cellebrite.com/en/pathfinder-b/
(13) Busche, Einführung in die Rechtsfragen der künstlichen Intelligenz, JA 6 2023, 443.
(14) Ebd.
(15) Zur Einordnung, ob regelbasierte KI-Systeme hierunter fallen, zustimmend etwa: Krönke, Das europäische KI-Gesetz: Eine Verordnung mit Licht und Schatten, NVwZ 8 2024, 529; Hacker/Berz, Der AI Act der Europäischen Union – Überblick, Kritik und Ausblick, ZRP 8 2023, 227; ablehnend: Biallaß, Die Auswirkungen der KI-VO auf die Justiz, MMR 8 2024, 647; umfassende kritische Analyse der Definition von KI in der KI-Verordnung: Wendehorst/Nessler/Aufreiter/Aichinger, Der Begriff des »KI-Systems« unter der neuen KI-VO, MMR 2024, 605 ff.
(16) Zur Weite des KI-Begriffs etwa Biallaß, a.a.O.; Schoendorf-Haubold/Giogios, KI im Einsatz für die Sicherheit, Verfassungsblog 10.12.2025, verfassungsblog.de/ki-im-einsatz-fur-die-sicherheit/
(17) Um nur einige zu nennen: Eisbach/Heghmanns/Hertel, Künstliche Intelligenz im Strafverfahren am Beispiel von Kriminalprognosen, ZflStw 7-8 2022, 489 ff.; Singelnstein, Predictive Policing: Algorithmenbasierte Straftatprognosen zur vorausschauenden Kriminalintervention, NStZ 1 2018, 1 ff.; Steege, a.a.O., 716; Vepřek u.a., Jenseits von Effektivität – Zur Legitimierung von Predictive Policing in Deutschland, KrimOJ 2(3) 2020, 423 ff.; Knobloch, Predictive Policing in Deutschland: Chancen und Gefahren datenanalytischer Prognosetechnik und Empfehlungen für den Einsatz in der Polizeiarbeit, August 2018, www.bertelsmann-stiftung.de/fileadmin/files/BSt/Publikationen/GrauePublikationen/predictive.policing.pdf
(18) Enders, Einsatz künstlicher Intelligenz bei juristischer Entscheidungsfindung, JA 10 2018, 723; von Graevenitz, „Zwei mal Zwei ist Grün“ – Mensch und KI im Vergleich, ZRP 51(8) 2018, 239.
(19) Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz, Erwägungsgrund 26 f.; Biallaß, a.a.O.; Krönke, a.a.O., 532; Honer/Schöbel, Das Gesetz über Künstliche Intelligenz im System der europäischen Digitalregulierung – Ein Überblick, JuS 7 2024, 650.
(20) Verordnung (EU) 2024/1689, Erwägungsgrund 59.
(21) Biallaß, a.a.O., 650.
(22) Honer/Schöbel, a.a.O., 651.
(23) Staffler/Jany, a.a.O., 175.
(24) Mavany in: Löwe-Rosenberg, StPO, 27. Aufl. 2019, Erster Abschnitt, Rn. 46, juris; Diemer in: KK-StPO, 9. Aufl. 2023, § 152 Rn. 4, beck-online; Hamm, Strafverfolgung recht und billig, NJW 4 1996, 237 f.; Drude, Kostenerwägungen als (zulässiges) Argument im Rahmen der strafprozessualen Rechtsanwendung, Göttinger Studien zu den Kriminalwissenschaften, Band 43, Universitätsverlag Göttingen 2022, 157, mit dem Ergebnis, dass eine Kostenerwägung, die die Sachverhaltsaufklärung verkürzt, nur zu einer Verfahrenseinstellung führen darf. Ein Verzicht auf möglicherweise entlastendes Beweismittel aus Kostengründen kann hierunter nicht gefasst werden.
(25) Staffler/Jany, a.a.O.; Studie zum Problem des übermäßigen Vertrauens in KI und der daraus resultierenden Problematik KI-gestützter Entscheidungsfindung: Klingbeil/Grützner/Schreck, Trust and reliance on AI – An experimental study on the extent and costs of overreliance on AI, Computers in Human Behavior 160 2024, 1 ff., www.sciencedirect.com/science/article/pii/S0747563224002206; pointiert zum Problem des Vertrauens in scheinbar neutrale Technologien: »AI adjudication could thus resemble the man who looks for his keys only where the light is« in Re/Solow-Niederman, Developing Artificially Intelligent Justice, Stan. Tech. L. Rev. 22(2) 2019, 270, law.stanford.edu/wp-content/uploads/2019/08/Re-Solow-Niederman_20190808.pdf
(26) Zur verfassungsrechtlichen Herleitung des Legalitätsprinzips: Diemer, a.a.O., Rn. 3; Schmitt in: Meyer-Großner/Schmitt, StPO, 64. Aufl. 2021, § 152 Rn. 2 und Mavany, a.a.O., Rn. 3.
(27) Staffler/Jany, a.a.O., 176; vgl. EGMR, Urt. v. 04.06.2019 – 39757/15 – partly dissenting opinion des Richters Pavli dazu, ob durch die Weigerung der Behörden, Zugang zur eDiscovery Software »Clearwell« zu gewähren, eine Verletzung des Prinzips der Waffengleichheit vorlag. Er meinte, dass seine Kolleg:innen die Komplexität der Datenanalyse bei großem Datenvolumen und die daraus resultierenden Implikationen für das Prinzip der Waffengleichheit unterschätzten. Richter Pavli widersprach der Auffassung, dass die Bereitstellung aller von der Staatsanwaltschaft für relevant betrachteten Beweise in einem solchen Fall ausreiche, und argumentierte, dass die Staatsanwaltschaft durch den Zugang zur eDiscovery Software einen deutlichen strukturellen Vorteil gehabt habe. Um das Prinzip der Waffengleichheit zu wahren, sei ein technischer Zugriff der Verteidigerseite notwendig gewesen. Er führte aus: »Again, the underlying premise for the use of such advanced technology is, of course, that both sides are granted the fullest possible access to begin with«.
(28) Das Prinzip der Waffengleichheit fordert equality, nicht equity of arms; ausführlich zum Thema Mrčela, Adversarial Principle, the Equality of Arms and Confrontational Right – European Court of Human Rights Recent Jurisprudence, ECLIC 1 2017, 16–18; Lohse/Jakobs in: KK-StPO, 9. Aufl. 2023, MRK Art. 6 Rn. 45, beck-online.
(29) Staffler/Jany, a.a.O., 177.
(30) Großteils individuell vereinbar mit dem Anbieter, je nach Datenvolumen, Benutzerzahl, Funktionen und Anpassungen; beispielhaft: Logikcull, die speziell mit dem Slogan »Discovery for the Many, Not the Few« werben, machen ihre Preise transparent – bei einer 12-monatigen Laufzeit mit einem Datenvolumen von 10 GB und einem User liegen die Gesamtkosten bereits bei $3.600, www.logikcull.com/staging-cost-calculator
(31) Vgl. hierzu BVerfG, Beschl. v. 06.06.1983 – 2 BvR 244, 310/83, NJW 1983, 2135; Schoch in: Schneider/Schneider, 5. EL Juli 2024, VwVfG § 29 Rn. 46, beck-online; Kallerhoff/Mayen in: Stelkens/Bonk/Sachs, VwVfG, 10. Auflage 2023, § 29 Rn. 29; Wissenschaftliche Dienste des Deutschen Bundestages (WD), Grundsätze der Aktenführung in der Bundesverwaltung, Az. WD 3 – 3000 – 108/23, 29.09.2023, www.bundestag.de/resource/blob/975036/ad4d3a1604f28aea463f07e05f40da25/WD-3-108-23-pdf.pdf
(32) Kallerhoff/Mayen a.a.O.; WD, a.o.O.
(33) Vgl. BVerfG, Beschl. v. 06.06.1983 – 2 BvR 244, 310/83, NJW 1983, 2135; Kallerhoff/Mayen, a.a.O., Rn. 30.
(34) Quezada-Tavárez/Vogiatzoglou/Royer, a.a.O., 546.
(35) Ebd.
(36) Siehe Ausführungen zur Einstufung als Hochrisiko-KI-System.
(37) BfDI, a.a.O., 4.
(38) Rückert legt in seinem LTO-Beitrag den erheblichen Eingriff in das Recht auf informationelle Selbstbestimmung nach Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 GG durch den Einsatz von KI-gestützter Gesichtserkennung dar, und weist auf den Mangel an Rechtsgrundlagen für solche Maßnahmen in der StPO hin.
(39) BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19, 1 BvR 2634/20, NJW 2023, 1196.
(40) Europarat, Übereinkommen über Computerkriminalität, 23.11.2001, rm.coe.int/168008157a
(41) Council of Europe, Europäische Ethik-Charta über den Einsatz künstlicher Intelligenz in Justizsystemen und ihrer Umgebung, 03.12.2018, rm.coe.int/charte-ethique-ia-en-allemand/16809fe3fe
(42) Council of Europe, Erste europäische Ethik-Charta für den Einsatz künstlicher Intelligenz in Justizsystemen verabschiedet, 04.12.2018, www.coe.int/de/web/portal/-/council-of-europe-adopts-first-european-ethical-charter-on-the-use-of-artificial-intelligence-in-judicial-systems
(43) Beispielhaft wurde folgender Fall gebildet: Wenn ein*e Richter*in vorschlägt, vor der Entscheidung einen Algorithmus zu verwenden, sollte die betroffene Partei stets Zugang zu dem Algorithmus haben – insbesondere im Hinblick auf dessen wissenschaftliche Validität, die Gewichtung der verschiedenen Faktoren sowie mögliche falsche Schlussfolgerungen – und diesen anfechten können. So das Council of Europe, Europäische Ethik-Charta über den Einsatz künstlicher Intelligenz in Justizsystemen und ihrer Umgebung, 45, Rn. 138. Spiegelbildlich wäre begrüßenswert, wenn der Zugang zu forensischen Datenanalyse-Tools gewährt werden würde.
(44) Instruktiv zum Begriff der »algorithmic fairness« Momsen, a.a.O., 15; detailliert zu »algorithmic fairness« und Diskriminerung im Zusammenhang mit predictive policing algorithms und der Herausarbeitung eines Lösungsansatzes Hung/Yen, Predictive Policing and Algorithmic Fairness, Synthese 201 2023, 206 ff.
(45) Ad Hoc Committee on Artificial Intelligence, Feasibility Study – Possible Elements of a Legal Framework on AI Design, Development and Application Based on Council of Europe Standards, 17.12.2020, Rn. 40, 84, rm.coe.int/cahai-2020-23-final-eng-feasibility-study-/1680a0c6da
(46) Quezada-Tavárez/Vogiatzoglou/Royer, a.a.O.
