Aufsatz : ChatGPT & Co. in der Strafjustiz – Einsatzszenarien großer KI-Sprachmodelle in der Strafverfolgung : aus der RDV 5/2023 Seite 300 bis 304
Große KI-Sprachmodelle („large language models“ (LLM)) sind eine Erscheinungsform Künstlicher Intelligenz, die durch den allgemein zugänglichen Chatbot ChatGPT große Resonanz erfahren und eine breite gesellschaftliche und politische Debatte über Chancen und Risiken Künstlicher Intelligenz (KI) ausgelöst haben. Der Forschungsausschuss des Deutschen Bundestags hat eine Studie zu den Auswirkungen von ChatGPT auf Bildung und Forschung in Auftrag gegeben,[1] der Rechtsausschuss des Landtags Nordrhein-Westfalen hat eine öffentliche Anhörung zum Einsatz von ChatGPT im Justizbereich durchgeführt,[2] der Ausschuss für Wissenschaft und Kunst des Bayerischen Landtags tat es ihm jüngst gleich.[3] Intensität und Dynamik der öffentlichen Debatte sind beeindruckend und korrespondieren mit dem disruptiven technischen Potenzial großer KI-Sprachmodelle. Sie zeigen aber auch die Notwendigkeit auf, Chancen und Risiken des Einsatzes von KI und LLM nicht nur gesamtgesellschaftlich, sondern in der Justiz selbst in den Blick zu nehmen. Die wissenschaftliche Debatte dazu ist in vielen Schattierungen in vollem Gang.[4] Im Vordergrund dieser Betrachtung soll die Praxisanwendung in der Strafjustiz stehen.
I. Bedeutung von KI für die Strafjustiz
Digitalisierung und Automatisierung erfassen zunehmend alle Bereiche des gesellschaftlichen, wirtschaftlichen und politischen Lebens. Die Justiz kann sich dem technischen Fortschritt und den gesellschaftlichen Entwicklungen im Bereich der KI nicht verschließen. In der Strafrechtspflege treten die genannten Entwicklungen auch durch eine zunehmende Digitalisierung der Tatbegehung hervor. So steigen etwa die bei Durchsuchungen gesicherten Mengen an Daten rapide an.[5] Eine weitere Zuspitzung dieser Entwicklung ist absehbar. Ohne den Einsatz von KI steht zu besorgen, dass mittelfristig die Strafverfolgung ihren Aufgaben nicht mehr uneingeschränkt gerecht werden kann, wenn sie digitale Herausforderungen vornehmlich mit analogen Instrumentarien zu meistern sucht. Es liegt daher nahe, im Rahmen des verfassungsrechtlichen und einfachgesetzlichen Handlungsrahmens der Justiz die technischen Entwicklungen zu erschließen, die ihr eine sachgerechte Erledigung ihrer Aufgaben auch in einer weitgehend digitalisierten Gesellschaft ermöglichen.[6]
II. Einordnung von LLM
Die besondere Fähigkeit von LLM liegt in der Verarbeitung von komplexer natürlicher Sprache. Diese Eigenschaft macht LLM für eine sprachgetriebene Disziplin wie die Rechtspflege besonders interessant. Das simulierte Textverständnis kann dabei sowohl für die Generierung von Texten wie auch für die Verarbeitung von textlichen Quellen genutzt werden. Aus Sicht der Strafrechtspflege geraten damit vor allem drei Themenfelder in den Blick.
1. Textliche Assistenzsysteme
LLM können Formulierungshilfe leisten. Standardisierte Verfügungen können durch LLM vorverfügt werden. So bedienen sich die Staatsanwaltschaften bei der Erstellung von Bescheiden und Anklagen derzeit oft Textunterstützungssystemen, bei denen vorgefertigte Textblöcke je nach Sachverhalt ausgewählt und durch „Ankreuzen“ nach Art eines Lückentexts digital zu einem finalen Dokument zusammengeführt werden. Die besondere Stärke von LLM liegt in ihrem hohen sprachlichen Vermögen. Es erscheint daher vorstellbar, die einem statischen Textblocksystem inhärenten Qualitätsdefizite durch ein LLM auszugleichen. Außerdem dürfte sich ein hoher Produktivitätszuwachs ergeben, wenn der menschliche Bearbeiter bzw. die Bearbeiterin lediglich die Verfügungsgrundlagen dem LLM in strukturierter Form zuliefert und dem Modell selbst die sprachliche Abfassung überträgt. Besonders deutlich wird dies in Fällen der Massen- und Alltagskriminalität – etwa im Bereich des sogenannten Ladendiebstahls, der geringfügigen Betäubungsmittelkriminalität oder einfacher Verkehrsdelikte –, die in ihrer Komplexität ohne Weiteres textlich durch ein LLM zu erfassen sind.
- Erschließung von Beweismitteln
Durch das Vermögen zu sprachlicher Erschließung und zur sprachlichen Zusammenfassung von Datenbeständen eignen sich LLM auch für einen einfachen Zugang zu umfangreichen Datenmengen. Einerseits können große Datenbestände – etwa ein im Rahmen eines Ermittlungsverfahrens gesicherter Kommunikationsbestand eines E-Mail-Servers – mit natürlicher Sprache erschlossen werden. Dabei kann die KI gefundene Datenquellen, aus denen sie ihre Antwort generiert, transparent anführen. Der Einsatz von LLM in diesem Sinne ist einer qualifizierten Suche gleichzusetzen. Andererseits lassen erste praktische Einsätze in der Analyse von Schadsoftware erwarten,[7] dass – weitere Verfeinerung der Modelle vorausgesetzt – jedenfalls die Erstanalyse von Schadcode in Cybersicherheitsvorfällen automatisiert werden kann. Hier werden die Fähigkeiten der LLM in der statistischen Analyse deutlich. Erste kommerzielle Anwendungen sind bereits am Markt und lassen das Potenzial für das strafrechtliche Ermittlungsverfahren erkennen.[8]
- Zugänglichkeit der Justiz
Die digitale Zugänglichkeit der Justiz entspricht nicht mehr der Lebenswirklichkeit eines Großteils der Bevölkerung. LLM als Grundlage eines „intelligenten“ Chatbots können einfache Anliegen an die Justiz – etwa die Erstattung einer Strafanzeige in Fällen der Alltagskriminalität – erheblich vereinfachen und deutlich effektiver gestalten. Anders als bei den üblichen Formularfeldern der sogenannten Internetwachen kann ein LLM die rechtssuchende Person durch den Anzeigenvorgang führen und dabei qualitätssichernd alle für die schnelle Bearbeitung der Strafanzeige erforderlichen Informationen interaktiv oder automatisch erheben.
III. Rechtlicher Handlungsrahmen
Die denkbaren Handlungsfelder sind damit ebenso breit, wie ihre rechtlichen Grundlagen kompliziert. Denn der Einsatz von LLM in der Strafjustiz muss sich in den verfassungsrechtlichen und einfachgesetzlichen Handlungsrahmen einfügen. Hierbei sind im Einzelfall der jeweiligen Praxisanwendung künstliche und menschliche Intelligenz auszutarieren.[9] Insbesondere in der Fallgruppe der textlichen Assistenzsysteme wird die Frage der rechtlichen Zulässigkeit der Automatisierung einer richterlichen oder staatsanwaltlichen Entscheidung relevant. Denn KI ist – jedenfalls bei einfach gelagerten Sachverhalten – in der Lage, digitale Entscheidungsbäume abzuarbeiten und mit dem textlichen Vermögen von LLM in eine Anklageschrift oder ein Urteil umzusetzen. Setzen Staatsanwaltschaft oder Gericht künftig nur die Rahmenbedingungen (etwa Menge und Art des online erworbenen Betäubungsmittels, Zahl der Vorstrafen, Tatdatum) und die KI bereitet Anklage und Urteil vor?
Art. 97 GG garantiert die sachliche (Abs. 1) sowie persönliche (Abs. 2) richterliche Unabhängigkeit. Die Vorschrift schützt die Rechtsprechung vor sachfremder Einflussnahme und bildet somit in Verbindung mit dem Richtermonopol (Art. 92 GG) den institutionellen Kern des Rechtsstaatsprinzips.[10] Jede vermeidbare Einflussnahme auf die Rechtsstellung der Richter seitens des Staates oder der Gesellschaft ist verboten. Dies bedeutet eine umfassende Freiheit des Richters von äußeren Einflüssen und Bindungen sowohl für die zu treffende Rechtsfindung als auch für den Rechtsspruch.[11] Dieser Kernbereich richterlicher Tätigkeit ist der Einflussnahme von außen komplett entzogen. Eine zulässige Beeinflussung richterlicher Tätigkeit ist demnach lediglich in Bereichen denkbar, die außerhalb des Kernbereichs liegen und somit dem Randbereich zuzuordnen sind. Darunter fallen insbesondere rein administrative Tätigkeiten. Insofern ist zu berücksichtigen, dass die richterliche Unabhängigkeit nicht in jeder Dimension absolut, sondern eingebunden in einen nach dem Prinzip der aktenmäßigen Aufgabenerledigung strukturierten bürokratischen Kontext ist.[12]
Gemäß Art. 101 Abs. 1 S. 2 GG darf niemand seinem gesetzlichen Richter entzogen werden. Dieser Grundsatz gilt für jede Art richterlicher Tätigkeit und soll der Gefahr vorbeugen, dass die Rechtsprechung durch Manipulation der Besetzung sachfremden Einflüssen ausgesetzt wird. Zweck der Vorschrift ist die Sicherung der Rechtsstaatlichkeit des gerichtlichen Verfahrens.[13] Auf diese Weise soll das Vertrauen der Rechtssuchenden in die Unparteilichkeit und Sachlichkeit der Justiz aufrechterhalten werden.[14] Art. 97 GG und Art. 101 GG bilden damit zwei komplementäre Ausprägungen eines umfassenden Schutzes der Rechtssuchenden vor sachfremden Einflüssen auf die Justiz. Die Verwendung von LLM in der Strafjustiz kann daher nur in den verfassungsrechtlich zulässigen Grenzen der Art. 101 Abs. 1 S. 2 und Art. 97 GG erfolgen.
Darüber hinaus steht Art. 92 GG, wonach die rechtsprechende Gewalt „den Richtern“ anvertraut ist, der Automatisierung des Strafurteils entgegen. Das Bundesverfassungsgericht leitet den Begriff des Richters resp. der Richterin oder des Gerichts aus dem Wesen der richterlichen Tätigkeit ab, welches darin bestehe, dass die Rechtsprechung „durch einen nichtbeteiligten Dritten in persönlicher und sachlicher Unabhängigkeit ausgeübt wird“.[15] Richter oder Richterin in diesem Sinne kann nur eine natürliche Person sein.[16] Auch wenn sich dem Normtext diese Vorgabe nicht wörtlich entnehmen lässt, folgt das Menschlichkeitserfordernis jedenfalls aus den einfachgesetzlichen Regelungen der §§ 1, 2, 5, 5a ff., 25f. DRiG und aus § 27 Abs. 1 DRiG („Richter auf Lebenszeit“).[17] So unterscheidet § 1 DRiG etwa zwischen Berufsrichtern und ehrenamtlichen Richtern und verlangt nach § 5 Abs. 1 DRiG ein Studium der Rechtswissenschaft mit anschließendem Vorbereitungsdienst.[18] Darüber hinaus verlangen gesetzliche Regelungen dem Richter bzw. der Richterin Fähigkeiten ab, die eine Software – jedenfalls nach dem derzeitigen technischen Stand – nicht hat. Beispielhaft zu nennen ist die in § 9 Nr. 4 DRiG genannte Voraussetzung der „erforderlichen sozialen Kompetenz“ oder das in § 38 Abs. 1 DRiG festgeschriebene Erfordernis der Ausübung des Richteramts „nach bestem Wissen und Gewissen“. Die richterliche Entscheidung ist nach den verfassungsrechtlichen und einfachgesetzlichen Vorgaben mehr als Regelsubsumtion.[19] Sie erfordert Empathie „in Form eines intuitiven Verstehens der Lage einer Person mit allen Sinnen.“[20]
Auf die Praxis der Strafrechtspflege heruntergebrochen kommt der Einsatz von LLM-Anwendungen anstelle eines Richters wegen des in Art. 92 GG und Art. 97 Abs. 2 GG verfassungsrechtlich und einfachgesetzlich in §§ 1, 2, 5, 5a f., 27 Abs. 1 DRiG kodifizierten Grundsatzes, dass es sich bei Richtern um natürliche Personen handeln muss, nicht in Betracht.[21] Dies folgt zudem auch aus den datenschutzrechtlichen Vorgaben, etwa Art. 22 der Datenschutz-Grundverordnung (DS-GVO) bzw. §§ 45, 54 BDSG und jeweilige landesrechtliche Äquivalente[22], die das grundsätzliche Verbot einer ausschließlich auf einer automatisierten Verarbeitung beruhenden nachteiligen oder erheblich beeinträchtigenden Entscheidung festschreiben.
LLM dürfen jedoch in Form von bloßen Assistenzsystemen eingesetzt werden. Vorgaben durch die Exekutive oder die Gerichtsverwaltung, LLM-Anwendungen einsetzen zu müssen, dürften jedoch im richterlichen Bereich unzulässig sein, da hierdurch Leitlinien für die rechtsprechende Tätigkeit vorgegeben werden.[23]
Obwohl in der Verfassung nicht explizit bestimmt, wirken die dem Legalitätsprinzip (§§ 152, 160 StPO) unterworfenen und gemäß § 146 GVG weisungsgebundenen Staatsanwaltschaften mit dem Ziel richtiger Gesetzesanwendung als ein dem Gericht gleichgeordnetes Organ der Strafrechtspflege mit[24] und garantieren mit ihrer Verpflichtung zur Objektivität gesetzmäßige und rechtsstaatliche Verfahrensabläufe im Strafverfahren.[25] Vor dem Hintergrund dieses Verständnisses der Staatsanwaltschaften als „Wächter des Gesetzes“[26] erscheint ein Einsatz von LLM innerhalb der Strafjustiz nur einheitlich auf gerichtlicher wie staatsanwaltschaftlicher Ebene sachgerecht, wenngleich im staatsanwaltlichen Bereich wegen der Weisungsgebundenheit gem. § 146 GVG ein größerer Spielraum für bindende Vorgaben der Justizverwaltung zum Einsatz von KI-Instrumenten bestehen dürfte.
IV. Kontraindikationen und Risiken
Der Einsatz von KI im Allgemeinen und LLM im Besonderen in der Strafjustiz ist jedenfalls im Bereich der Beweismittelerschließung, des digitalen Kontakts zu Rechtsuchenden und der Assistenzsysteme möglich. Neben den verfassungsrechtlichen und einfachgesetzlichen Rahmenbedingungen sind jedoch weitere Aspekte für einen sinnvollen und vertretbaren Einsatz von LLM in der Justiz zu berücksichtigen.
Transparenz und Nachvollziehbarkeit der durch LLM-Verarbeitung generierten Ergebnisse sind nach wie vor eine große Herausforderung. Dies liegt zum einen an der insgesamt weitgehend unklaren Trainingsgrundlage vieler marktgängiger LLM. Ob die zur Generierung des LLM verwendeten Daten inhaltlich korrekt, aktuell und nicht manipuliert sind, entzieht sich der Beurteilung des Anwenders.[27] Dabei ist mangelnde Transparenz nicht nur ein ethisches Problem. Der Einsatz von so genannten „Black-Box-Systemen“, deren Entscheidungsstruktur für die zu einer Entscheidung berufene Person nicht nachvollziehbar ist, ist auch rechtlich problematisch. Denn ist die anwendende Person nicht in der Lage, die der KI-Anwendung zu Grunde liegende Entscheidungsstruktur zu durchdringen, trifft sie, wenn sie ihrer Entscheidung ausschließlich die Empfehlung der Anwendung zu Grunde legt, keine unabhängige und allein am Gesetz orientierte richterliche Entscheidung im Sinne des Art. 97 GG bzw. als gemäß Art. 20 Abs. 3 GG an Recht und Gesetz gebundener Staatsanwalt oder Staatsanwältin keine den oben aufgezeigten Maßstäben gerecht werdende Entschließung.[28] Ein Strafrichter oder eine Strafrichterin wäre bei dem Einsatz eines Black-Box-Systems auch nicht in der Lage, der Pflicht zur Begründung der Entscheidung nachzukommen. Aus § 267 StPO ergibt sich sinngemäß, dass in den Entscheidungsgründen des Urteils die maßgeblichen Erwägungen dargelegt werden müssen, auf denen die Entscheidung beruht. Finden von Dritten erstellte (vorbereitende) Arbeiten (wie beispielsweise von Sachverständigen) Verwendung, muss die entscheidende Person diese inhaltlich voll nachvollziehen, um sie in ihrer Entscheidungsbegründung verwenden zu können. Ohne volle Transparenz, aufgrund welcher Kriterien und in welchem Entscheidungsprozess der zur Entscheidungsvorbereitung eingesetzte Algorithmus zu einem bestimmten Ergebnis gelangt ist, wäre eine umfassende eigenverantwortliche Nachprüfung durch das Gericht nicht mehr gesichert. Eine umfassende Nachprüfung der Entscheidung durch eine Rechtsmittelinstanz wäre nicht mehr möglich, was wiederum nicht nur eine Verletzung der Rechtsweggarantie des Art. 19 Abs. 4 GG begründen würde[29], sondern auch eine zwingende Urteilsaufhebung wegen einer lückenhaften Beweiswürdigung zur Folge hätte. Im Hinblick auf die staatsanwaltliche Tätigkeit sind in diesem Kontext vor allem die an eine Anklageschrift zu stellenden Darstellungsvoraussetzungen gemäß § 200 Abs. 2 StPO i.V.m. Nr. 110 RiStBV sowie die im Einstellungsfall geltenden Bescheidungs- und Begründungspflichten gemäß § 171 S. 1 i.V.m. Nr. 89 Abs. 2 RiStBV zu nennen, die im Falle vom Anwender nicht durchdrungener und damit nicht erklärbarer KI-Anwendungen kaum einzuhalten wären. Da staatsanwaltliche Einstellungsentscheidungen zudem gemäß § 172 StPO gerichtlicher Kontrolle unterliegen, wäre diesbezüglich zu besorgen, dass eine gerichtliche Nachprüfung der Einstellungsentscheidung nicht mehr möglich wäre.
Wenngleich es folglich ein rechtliches und ethisches Bedürfnis nach einer belastbaren Beurteilungsgrundlage gibt, darf nicht verkannt werden, dass KI-Systeme wie LLM sich einem herkömmlichen Überprüfungsprozess entziehen. Die Annahme, es gebe eine grundlegende algorithmische Formel, die in einer Art Validierung durch menschliche Überprüfung nachvollzogen und freigegeben werden könne, geht fehl. KI wird in einem neuronalen Netz durch die Verknüpfung der Neuronen und ihre Gewichtung zueinander bestimmt, die sich durch das KI-Training verändern. Bildlich gesprochen ist eine KI eine lange Liste von Parametern, deren bloße Betrachtung oder Prüfung weder ein formelhaftes Grundkonstrukt noch ein abstraktes Verständnis hervorbringen kann. Transparenz und Überprüfbarkeit heißt daher vor allem Offenlegung des Netzes, seiner Struktur und seiner Gewichte, damit Nachvollziehbarkeit durch Nachstellbarkeit auf einer eigenen Instanz ermöglicht wird. Dementsprechend fokussieren sich Mechanismen der sogenannten Explainable AI („XAI“)[30] auf die Vorhersage des Einflusses eines Faktors auf ein von einer KI gefundenes Endergebnis. Die Entwicklung steht hier – soweit nachvollziehbar – noch am Anfang. Abzuwarten bleibt ebenfalls, inwieweit die vorgeschlagene und in intensiver Diskussion befindliche Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz vom 21.04.2021[31] einen klaren Handlungsrahmen setzen kann.
Zudem bergen erfolgreiche Assistenzsysteme stets die Gefahr einer Gewöhnung des menschlichen Bearbeiters an deren Zuverlässigkeit („automation bias“ und „automation complacency“), so dass das Vertrauen in die Ergebnisse des Systems so groß wird, dass falsche Informationen als richtig akzeptiert und Warnsignale ignoriert werden.[32] Es muss – vor allem durch eine angemessene Schulung der Anwendenden im Umgang mit assistiven Systemen und durch geeignete Überprüfungsmechanismen – sichergestellt sein, dass die unterstützende Funktion nicht schleichend in den Bereich der Entscheidung diffundiert.
Schließlich zeichnen sich Risiken auch bei den jeweiligen Betriebsmodellen ab. Derzeit werden LLM vorwiegend in kommerziellen Cloudumgebungen angeboten. Die Rahmenbedingungen einer Cloudnutzung durch die Justiz sind nicht abschließend geklärt.
V. Perspektiven
Die rechtlichen, ethischen und praktischen Betrachtungen lassen einen Anwendungsbereich für LLM in der Strafjustiz unterhalb der Schwelle des entscheidungsersetzenden Einsatzes offen. Beweismittelerschließende LLM-Systeme können insbesondere durch den technologischen Zugang zu großen Datenbeständen die Grundlage einer tragfähigen und hinreichend zügigen – wenngleich nicht abschließenden – kriminalistischen Hypothese im Bereich des strafrechtlichen Anfangsverdachts, § 152 Abs. 2 StPO bereiten. Sie sichern mit Blick auf die stetig zunehmenden Datenmengen in strafrechtlichen Ermittlungsverfahren damit die Funktionsfähigkeit der Strafrechtspflege. Reinen Assistenzsystemen wird die Entscheidung selbst vorgegeben. Ihre Aufgabe darf lediglich in der sprachlichen Darstellung abgegrenzter Komponenten bestehen. Nachdem eine Technologievalidierung auf algorithmischer Ebene nicht naheliegt,[33] ist es erforderlich, dass der erstellte Entwurf einer zuvor getroffenen Entscheidung eine strikte menschliche Überprüfung und ggf. Nachbearbeitung erfährt. Der Einsatz von LLM als Beispiel einer KI-Anwendung dürfte daher insbesondere bei klar strukturierten und abgegrenzten Sachverhalten in Betracht kommen, die eine sichere Überprüfung von Ein- und Ausgabe und deren Korrelation ermöglichen.
Der mutige Einsatz von KI und LLM wird auch in anderer Hinsicht über die Zukunftsfähigkeit der Strafjustiz (mit-)bestimmen. Dabei ist zunächst die Konkurrenzfähigkeit des justiziellen Arbeitsplatzes in den Blick zu nehmen. Die Justiz darf etwa gegenüber der Anwaltschaft, die mit „Legal Tech“ ihre Arbeitsmöglichkeiten digitalisiert, nicht ins Hintertreffen geraten. Hierbei spielt auch die Attraktivität des Arbeitsumfelds für Berufseinsteigerinnen und Berufseinsteiger eine Rolle, die nicht zuletzt durch die zur Verfügung gestellten Arbeitsmittel bestimmt wird. Gerichte und Staatsanwaltschaften sollten sich als Teil der staatlichen Aufgabenerfüllung in einer sich wandelnden Gesellschaft auch als „Wettbewerber auf einem sich ausdifferenzierenden Justizleistungsmarkt“[34] verstehen.
Angesichts der auch die Justiz treffenden demographischen Entwicklung ist absehbar, dass jedenfalls erhebliche Bereiche der zukünftig in Summe nicht mehr zur Verfügung stehenden Arbeitskraftanteile durch eine Produktivitätssteigerung aufgefangen werden müssen. Daher dürfte sich ein sinnvoller und sachgerechter Einsatz von KI im Allgemeinen und LLM im Besonderen als zentrale Grundlage einer fortbestehenden Leistungsfähigkeit des Rechtsstaats insgesamt erweisen. So könnte eine sachgerechte Nutzung LLM-basierter Texterstellungskomponenten die Arbeit von Gerichten und Staatsanwaltschaften in Verfahrensbereichen, bei denen wertende Entscheidungen nicht im Vordergrund stehen, erheblich erleichtern und zu einer deutlichen Entlastung führen.[35] Freigewordene zeitliche Ressourcen und personelle Kapazitäten könnten im Rahmen derjenigen Aufgaben, die nur durch natürliche Personen wahrgenommen werden können und dürfen, im Ergebnis zu einer beschleunigten Bearbeitung der Vorgänge und zu Qualitätssteigerungen führen.
VI. Fazit
Die Justiz wird sich mit Blick auf konservativ interpretierte rechtliche und ethische Rahmenbedingungen als weitgehend KI-freie Sphäre nicht behaupten können, sondern muss in Ansehung der berechtigten Erwartungen der Rechtsuchenden an ein effizientes, schnelles und befähigtes Rechtssystem jedenfalls im Bereich des Strafrechts konstruktive Technikoffenheit annehmen.
[1] Pressemitteilung vom 10.02.2023, https://www.bundestag.de/presse/pressemitteilungen/2023/934052-934052.
[2] Der Autor war als Sachverständiger zu dieser Anhörung geladen. Der Text greift einige seiner in der Anhörung vorgestellten Positionen auf. Eine Übersicht der Anhörung und der dazu abgegebenen Stellungnahmen ist unter https://www.landtag.nrw.de/home/der-landtag/tagesordnungen/WP18/300/E18-362.html zu finden.
[3]https://www.bayern.landtag.de/aktuelles/aus-den-ausschuessen/wissenschaftsausschuss-anhoerung-chancen-und-risiken-von-ki-im-wissenschaftsbetrieb/.
[4] Möller-Klapperich, NJ 2023, 144; Johannisbauer, MMR-Aktuell 2023, 455537; Schwartmann, MMR-Aktuell 2023, 455536.
[5] Zum grundsätzlichen „Massenproblem“ vgl. Warken, NZWiSt 2017, 329, 332; Fährmann, MMR 2020, 228, 231 ff.
[6] Bayern und Nordrhein-Westfalen wollen etwa ein juristisches LLM gemeinsam entwickeln, zu vgl. Pressemitteilung JM NRW vom 26.05.2023, https://www.land.nrw/pressemitteilung/einsatz-kuenstlicher-intelligenz-der-justiz-nordrhein-westfalen-und-bayern.
[7] Beispiele: https://research.nccgroup.com/2023/02/09/security-code-reviewwith-chatgpt/; https://threatmon.io/chatgpt-and-malware-analysis-threatmon/
[8]https://www.microsoft.com/de-de/security/business/ai-machine-learning/microsoft-security-copilot
[9] Zu vgl. zur richterlichen Entscheidung: Staffler/Jany, ZIS 2020, 164, 170.
[10] Morgenthaler, in: BeckOK GG, 54. Ed. 15.02.2023, Art. 97 Rn. 1.
[11] Wolff, in: Hömig/Wolff, GG, 13. Aufl. 2022, GG Art. 97 Rn. 3.
[12] Berlit, Richterliche Unabhängigkeit und elektronische Akte, JurPC Web-Dok 77/2012, Abs. 2, abrufbar unter https://www.jurpc.de/jurpc/show?id=20120077.
[13] Fischer, in: KK-StPO, 9. Aufl. 2023, StPO Einleitung Rn. 99.
[14] Morgenthaler, in: BeckOK GG, a.a.O., Art. 101, Rn. 3.
[15] Zu vgl. BVerfGE 4, 331 (346); BVerfGE 103, 111 (140).
[16] Hierzu Bernzen, RDi 2023, 132, 134
[17] Biallaß, in: Ory/Weth, jurisPK-ERV, Band 1, 2. Aufl., Kapitel 8, Rn. 144 m.w.N
[18] Francken, NZA 2023, 536, 537.
[19] So im Ergebnis auch das Gutachten der Datenethikkommission, Abschnitt F 7.3 (abrufbar unter https://www.bmi.bund.de/SharedDocs/downloads/DE/publikationen/themen/it-digitalpolitik/gutachten-datenethikkommission.pdf)
[20] Lilienthal/Bücker/Herles, Schafft Künstliche Intelligenz die Anwaltschaft ab?, LTO v. 28.04.2023, abrufbar unter https://www.lto.de/recht/kanzleien-unternehmen/k/chatgpt-chatbots-kuenstliche-intelligenz-ersatz-anwaelte-richter-rechtswesen-anwaltschaft-ki/; ähnlich: Einsatz von KI und algorithmischen Systemen in der Justiz, Grundlagenpapier zur 74. Jahrestagung der Präsidentinnen und Präsidenten der Oberlandesgerichte, des Kammergerichts, des Bayerischen Obersten Landesgerichts und des Bundesgerichtshofs vom 23. bis 25.05.2022 in Rostock, S. 9, abrufbar unter https://oberlandesgericht-celle.niedersachsen.de/download/187961/Grundlagenpapier_der_Arbeitsgruppe_zum_Einsatz_von_
[21] Biallaß, a.a.O., Rn. 144 m.w.N.
[22] Zu vgl. für NRW §§ 35, 46 DSG NRW
[23] Biallaß, a.a.O., Rn. 145.
[24] Meyer-Goßner/Schmitt, StPO, 65. Aufl. 2022, Einl. Rn. 87.
[25] Zu vgl. etwa für NRW § 1 LRiStaG NRW.
[26] Zu vgl. BGH III ZR 113/54 vom 08.03.1965, BGHZ 20, 178
[27] Die generellen Größenordnungen und Quellen sind vereinzelt öffentlich diskutiert worden, zu vgl. etwa https://hai.stanford.edu/news/how-large-language-models-will-transform-science-society-and-ai.
[28] Biallaß, a.a.O., Rn. 155 m.w.N.
[29] Hierzu Biallaß, a.a.O., Rn. 162.
[30] Eine Übersicht zum Thema gibt Biallaß, a.a.O., Rn. 385 ff
[31] Abrufbar unter https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX%3A52021PC0206.
[32] Kevekordes, in: Hoeren/Sieber/Holznagel, MMR-HdB, 58. EL März 2022, Teil 29, Rn. 44 ff.
[33] Zu vgl. oben Abschnitt IV.
[34] So prägnant Berlit, a.a.O., Abs. 3.
[35] Zu vgl. Grundlagenpapier a.a.O., S. 28.