DA+

Aufsatz : KI als Advocatus Diaboli im Rechtsstaat : aus der RDV 5/2023 Seite 296 bis 300

Beim Einsatz Künstlicher Intelligenz herrscht Euphorie. Es gilt, die Möglichkeiten und Grenzen in der Verwaltungsgerichtsbarkeit und der Justiz insgesamt auszuloten.[1]

I. Fälle aus der Praxis

In der Deutschen Richterzeitung wird ein richterlicher Selbstversuch beschrieben, bei dem ChatGPT ein Urteil zu einem Tatbestand geschrieben hat. „Die Argumentation ist verflixt überzeugend“. Und dennoch ist das Urteil des Autors vernichtend. Aus dem Votum des Bots müsse man nämlich angeblich „gründlich geprüft(e)“, aber tatsächlich nicht vorhandene Zeugenaussagen herausfiltern. Im Ergebnis gebe es zwar „keinen menschlichen Vorsprung beim Judiz: Die menschliche und maschinelle Sicht der Dinge stimmen überein, in beiden Fällen soll dieselbe Partei gewinnen.“[2] Das bedeutet aber nichts, wenn das Urteil auf einer Wahrscheinlichkeitsberechnung beruht, deren Paramater man nicht kennt und die teilweise falsch sind. Das Problem der Halluzination hat auch Harvey, ein auf juristische Inhalte optimierter Bot, der auf ChatGPT 4 aufsetzt. Die Kanzlei Allen Overy setzt ihn ein, muss aber die Ergebnisse noch validieren.[3]

Bei der Wirtschaftsprüfungsgesellschaft PricewaterhouseCoopers (PwC) geht man davon aus, dass der Bot künftig Junganwälten die Arbeit abnimmt. Das berichtet die Neue Zürcher Zeitung, die vom Beginn der „Revolution in der Juristerei“ spricht.[4] Der Chef der Zentralstelle zur Bekämpfung von Cybercrime in Nord-Westfalen (ZAC NRW) ist Leitender Oberstaatsanwalt. Er beschreibt in der Fachzeitschrift Recht der Datenverarbeitung einen Anwendungsbereich für die mutige Verwendung von LLM und KI in der Strafjustiz unterhalb der Schwelle des entscheidungsersetzenden Einsatzes. Dieser werde über die Zukunftsfähigkeit der Strafjustiz (mit-) bestimmen.[5] Zugleich werden die verfassungsrechtlichen Probleme beim Namen genannt. Die richterliche Unabhängigkeit, das Recht auf den (menschlichen) gesetzlichen Richter und das Legalitätsprinzip sind Eckpunkte. Der Befund in der Richterzeitung bringt es auf den Punkt: „Spezifisch auf Rechtsfragen trainierte Sprachmodelle zu nutzen (…) und gleichzeitig das Primat menschlicher Entscheidungen zu wahren, wird unsere Aufgabe sein.“ Aber wie geht das? Vor einer Antwort auf diese Frage gilt es, die rechtlichen Grenzen der Zulässigkeit von Sprachmodellen in der Justiz auszuloten. Zu klären ist zunächst, ob es sich bei einer Anwendung überhaupt um Künstliche Intelligenz (KI) handelt. Die Anforderungen an die KI sind hoch und verlangen eine gewisse Autonomie, die zu einem bestimmten Grad frei von menschlicher Steuerung ist. Das trifft auf Sprachmodelle wie ChatGPT zu. Bei einer Software, die die Polizei etwa zur schematischen Verbrechensbekämpfung einsetzt, handelt es sich nicht um KI. Das gilt auch für Software, die in der Finanzverwaltung bei automatisierten Steuerbescheiden oder in der Privatwirtschaft für ein Kreditscoring eingesetzt wird. Bereits bei Einsatzmöglichkeiten derartiger Software unterhalb der Schwelle der KI sind aber rechtliche Grenzen gesetzt.

II. Luxemburg und Karlsruhe ziehen enge Grenzen

Der Europäische Gerichtshof (EuGH) befasst sich aktuell mit Kreditauskunfteien. Im März 2023 hat sich der zuständige Generalanwalt zum Geschäftsmodell der SCHUFA (Schutzgemeinschaft für allgemeine Kreditsicherung) positioniert.[6] Es geht insbesondere um die Frage, ob das Scoring datenschutzrechtlich zulässig ist. Rechtlich relevante Entscheidungen ausschließlich automatisiert von Maschinen treffen zu lassen, ist nach der DS-GVO grundsätzlich verboten.[7] Im Fall von Auskunfteien wird zwar der Score durch einen Algorithmus errechnet. Der Mensch entscheidet hingegen auf Basis des Scores, ob der Kredit gewährt oder abgelehnt wird. De facto verbleibt dem Menschen aber keine echte Wahl, denn ein unzureichender Score führt regelmäßig zur Ablehnung des Kredits. Für den Generalanwalt liegt bei der SCHUFA daher kein maßgeblicher menschlicher Beitrag vor.[8] Die Entscheidung des Gerichtshofs darüber kann für Bewegung im Bereich der Grundlagen für Kreditvergaben sorgen. Maschinen können aber auch andere Entscheidungen treffen, die rechtliche Auswirkungen auf Menschen haben. Wird in der Justiz ein Bot im oben beschriebenen Sinne eingesetzt, dann dürfte die Vorentscheidung Rechte der betroffenen Beschäftigten beeinflussen können. Die Entscheidung aus Luxemburg könnte also vielen Anwendungen, die aktuell diskutiert werden, schon nach der DS-GVO den Boden entziehen. Das Bundesverfassungsgericht (BVerfG) hat kürzlich zum Einsatz lernfähiger Systeme auf Grundlage der Polizeigesetze in Hamburg und Hessen, die die Polizei zum Einsatz automatisierter Anwendungen zur Datenanalyse ermächtigen, entschieden.[9] Aktuell ist ein Verfahren über die entsprechende Norm in NordrheinWestfalen anhängig, bei dem es wie in Hessen und Hamburg nicht um KI im Sinne des Entwurfs der KI-Verordnung (KI-VO) der EU geht.[10] Karlsruhe zieht im Rahmen allgemeiner Ausführungen enge Grenzen. Es besteht die Gefahr, dass sich die maschinellen Lernprozesse und Ergebnisse einer „KI-Anwendung“ – gemeint sind auch Anwendungen unterhalb der Schwelle der künftigen KI-VO – immer schwerer nachvollziehen lassen und dadurch der Staat die Kontrolle über diese Systeme verliert. Außerdem besteht die Gefahr, dass Anwendungen, die von Dritten entwickelt werden, unbemerkt manipuliert werden oder Dritte Zugriff auf die Daten erlangen. Selbstlernende Systeme dürfen bei hoheitlichem Handeln nur dann zum Einsatz kommen, wenn der Gesetzgeber Art und Umfang des KI-Einsatzes hinreichend regelt. Fehlt es an solchen Regelungen, fordert es die Waffengleichheit im Verhältnis zum Bürger, dass der Staat zum Schutz seiner Bürger KI gerade nicht einsetzt.[11] Diese Rechtsprechung dürfte bei Ermittlungsbehörden Stirnrunzeln auslösen. Wie sie sich beim Einsatz der KI vor allem in der Verwaltungsgerichtsbarkeit auswirkt, wird noch zu untersuchen sein.

Sofern es sich bei Anwendungen begrifflich um KI nach den Kategorien der gerade entstehenden EU-KI-Verordnung handelt, müssen sich sog. „Large Language Models“, die eine Datenbasis auswerten und in menschlicher Sprache antworten, deren Regulierung unterziehen.[12] Nach dem Ansatz des EU-Parlaments ist „general-purpose-AI“[13], also KI-Anwendungen, die für unterschiedliche Zwecke taugen, wie auch die ChatGPT-Anwendung für sich genommen, nicht risikobehaftet. Nur den Anbietern eines „Foundation Models“, also des mit vielen Daten trainierten Modells als Basis der Anwendung, werden in einem neu geschaffenen Artikel besondere Pflichten auferlegt.[14] Werden sie eingehalten, gilt der darauf fußende Bot nach Ansicht des EU-Parlaments als sicher. Es klingt plausibel, dass nicht die Technik gefährlich ist, sondern der Mensch, der sie nutzt. Die Nutzung einer Software wie ChatGPT beruht auf einem Foundation Model, bei dessen Datenbasis die Herkunft intransparent ist und bei dem es nicht auf richtig, falsch, erlaubt, verboten, für den Kontext sinnvoll, sinnlos oder gar schädlich ankommt. Wer den Bot als Anwalt nutzt, handelt nach dem Entwurf der KI-Verordnung im Bereich des Erlaubten. Für die Nutzung kommt es auf die allgemeinen Regeln an, etwa des Datenschutz-, Urheber-, Jugendschutz- und Medienrechts.[15] Unterbreitet der Anwalt bewusst einen falschen Sachverhalt, dann kann das einen Prozessbetrug darstellen. Das Recht muss der Richter aber selbst prüfen. Setzt er ChatGPT ein, etwa um zu recherchieren, einen juristischen Dialog zum Fall zu führen oder gar einen Lösungsvorschlag im Urteil zu übernehmen, beginnen zahlreiche Probleme. Damit darf die Justiz nicht arbeiten.

III. Ziel der Effizienz in der Rechtsdurchsetzung

Setzt der Richter KI-Systeme ein, die speziell darauf trainiert sind, Sachverhalte und Rechtsvorschriften zu ermitteln und auszulegen, ist das nach der KI-Verordnung hochriskant.[16] Beim Einsatz von Hochrisiko-KI muss zusätzlich zu den allgemeinen Anforderungen nach der DS-GVO etwa eine Risikoabwägung vorgenommen werden und es gelten besondere technische Pflichten.[17] Zudem soll nach der Idee des Parlaments vor dem Einsatz der KI eine spezifische Grundrechtsprüfung[18] durchgeführt werden. Insbesondere muss der Mensch Herr der Entscheidung bleiben. Bei alledem muss man eines sehen. Das Ziel des Einsatzes von KI ist es, Rechtsstaatlichkeit und Effizienz in der Rechtsdurchsetzung zu stärken. Weil Technik unschuldig und neutral ist, kann sie dem europäischen Verständnis des Rechtsstaats ebenso dienen, wie jedem anderen. Die technischen Möglichkeiten sind offenkundig und verfügbar und ihre Chancen sind ebenso wenig von der Hand zu weisen, wie ihre Risiken. Aber sind Sprachmodelle mit ihren Möglichkeiten ein „Iudex ex Machina“, der wie ein „Deus ex Machina“ als unerwarteter technischer Helfer der Justiz die Weltbühne betreten hat, um die Welt gerechter und besser zu machen?

Der amerikanisch-israelische Nobelpreisträger Daniel Kahneman hat in seinem Buch „Noise“ zwar die Stimmungsabhängigkeit richterlicher Entscheidungen nachgewiesen. Für ihn ist die Hilfe „rechtlich einwandfrei“ programmierter Algorithmen gerade in der Justiz unverzichtbar. Dabei ist die Frage nach der rechtlich belastbaren Datenbasis allerdings noch unbeantwortet. Die Datenbasis, auf die eine Maschine zugreift, beruht unter anderem auf alten Gerichtsentscheidungen. Bedient sich der Richter bei der Sachverhaltsermittlung und rechtlichen Bewertung eines KI-Systems, beruht das Ergebnis auf einer Wahrscheinlichkeitsrechnung. Das verstößt gegen Art. 103 GG, der rechtliches Gehör durch einen Menschen verlangt. Die häufige Meinung ist nach dieser Logik die herrschende Meinung. Mindermeinungen fallen aus statistischen Gründen unter den Tisch. Die wertungsmäßige Richtigkeit oder das Judiz sind keine Parameter der Stochastik, auch wenn die Wahrscheinlichkeit für den menschlichen Empfänger oft mit der Richtigkeit übereinstimmt. Das Ergebnis der Maschine hängt von der Datenbasis ab. Ist sie unvollständig, oder besteht sie aus kuratierten Inhalten eines juristischen Verlages, dann ist die dort ausgewählte Rechtsprechung und Literatur Basis des Rechts und insofern problematisch. Dass man alle Gesetze, Rechtsprechung und Literatur eines Rechtskreises zur Basis macht, ist unrealistisch und vielleicht auch nicht erforderlich. Dennoch muss es transparente Regeln für die Bestückung der Datenbasis geben. Noch ist nicht erkennbar, wie und durch wen sie festgelegt werden sollen. Ebenso ungelöst sind Fragen nach der rechtskonformen Programmierung des Sprachmodells. Wann eine juristische Wertung diskriminierend ist oder Recht erzeugt, kann man nicht vorgeben. Wie programmiert man die Linie der Grundrechtecharta und des Grundgesetzes jeweils in der Auslegung ihrer authentischen gerichtlichen Interpreten? Und wie buchstabiert man die Voraussetzungen für die Anwendung der unbestimmten Rechtsbegriffe und Ermessensnormen für die Praxis aus? Legt der Gesetzgeber die Parameter für die Ausgestaltung der Meinungsvielfalt fest, wie das Bundesverfassungsgericht, das für die positive Rundfunkordnung vorgegeben hat? Die Datenethikkommission denkt in diese Richtung.[19]

IV. Die Gerichtssprache ist deutsch und nicht Python

Wie steht es um die richterliche Letztentscheidung? Die gebetsmühlenartige Betonung, dass sie ohnehin stets der Mensch als Richter trifft, ist lebensfremd. Er entscheidet und wägt während des Verfahrens unzählige Male ab und wählt im Rahmen seiner richterlichen Unabhängigkeit sorgfältig aus, welches Verfahren er zunächst bearbeitet, ob der Sachverhalt hinreichend feststeht oder Beweis zu erheben ist. Er prüft, ob dem Rechtsfrieden mehr gedient ist, wenn er auf eine gütliche Einigung hinwirkt, statt durch ein Urteil zu entscheiden. Können Richter die Gesetzmäßigkeit staatlichen Handelns mithilfe KI-basierter Assistenzsysteme gewährleisten? Allenfalls dann, wenn das menschliche Denken frei von erkennbaren und versteckten Verzerrungen (Bias und Noise) bleibt. Was sind Voraussetzungen für den Einsatz? KI muss stets transparent und kontrollierbar sein. Transparenz bedeutet mehr, als nur die Logik und Tragweite des Systems zu verstehen. Es verlangt die Kenntnis über den Algorithmus, die Herkunft und Auswahl der Trainingsdaten, die zielgerichtete Prompteingabe und das weitere Trainieren der KI durch Nutzung. Das alles muss nicht nur dem Spruchkörper transparent sein. Dies gilt auch für die folgenden Instanzen, die eine angefochtene Gerichtsentscheidung in tatsächlicher und/oder rechtlicher Hinsicht überprüfen, bis hin zu BVerfG oder EuGH. Auch die Beteiligten haben einen Anspruch auf Zugang zu diesen Informationen. Denn die Gerichtssprache ist deutsch[20] und nicht Python, die Programmiersprache der Entwickler. Zu verstehen, wie KI-basierte Assistenzsysteme funktionieren und ihre Funktionsweise sowie deren Ergebnisse kritisch zu hinterfragen, ist für die Wahrung der richterlichen Unabhängigkeit und des effektiven Rechtsschutzes unabdingbar. Doch das kostet den Richter Zeit und damit ist die KI nicht unbedingt ein Instrument zur Personal- und Zeitersparnis. Er darf nicht der Versuchung erliegen, den Akteninhalt schneller zu durchdringen und deswegen schneller das Verfahren beenden zu können. Er muss die gewonnene Zeit einsetzen, um sich selbst und den KI-basierten Vorschlag zu hinterfragen. Nur so gelingt es, die tragenden Gründe seiner Entscheidung anzugeben, wie es das Gesetz verlangt.[21] Der Richter muss grundsätzlich den Nutzen der Assistenzsysteme hinterfragen. Eine KI-basierte Zusammenfassung mehrerer tausend Seiten umfassender Gerichts- und Behördenakten taugt als Entscheidungsgrundlage nicht, wenn die Beteiligten Unzureichendes oder Nichtvertretbares vortragen. Verfahrensverantwortung beruht auf selbst erarbeiteter Aktenkenntnis. Das Gericht ist an den Vortrag der Beteiligten nicht gebunden. Es muss etwa im Verwaltungsprozess von Amts wegen ermitteln und ggf. Beweis erheben.

V. KI im Einsatz der Justiz

Entscheidungsvorbereitende Assistenzsysteme sind schon heute bei den Zivilgerichten im Einsatz. Der elektronische Urteilskonfigurator FRAUKE unterstützt dabei, zigtausende Klagen wegen Fluggastrechten abzuarbeiten.[22] OLGA unterstützt das OLG Stuttgart in „Dieselverfahren“.[23] Die Assistenzsysteme wurden entwickelt, um der Flut an Klageverfahren Herr zu werden. Euphorisch wird KI als Retter in Massenverfahren angepriesen. In der Zivilgerichtsbarkeit mag der Einsatz der KI eine Berechtigung haben. Eine Klage wegen eines verspäteten Fluges ist erfolgreich, wenn der Kläger die wenigen Anspruchsvoraussetzungen seiner Fluggastrechte darlegen kann: Mit welcher Flugverspätung ist der Kläger am Zielflughafen angekommen, wie lang war die Flugstrecke.[24] Der Richter muss prüfen, ob der Fluggast hierzu vorgetragen hat. Gelingt dem Kläger dies in einem einseitigen Schriftsatz, wird der Richter schnell fündig. Kleidet der Fluggast seine Klage in einen ausschweifenden Reisebericht ein, muss der Richter ebenso die entscheidungserheblichen Angaben ermitteln. Hingegen darf sich der Verwaltungsrichter nicht darauf verlassen, dass ein Asylbewerber seine Verfolgungsgeschichte chronologisch, vollständig und plausibel vorträgt. Er darf sich auch nicht davon leiten lassen, dass Asylklagen hinsichtlich desselben Herkunftsstaats mit einer ähnlichen Verfolgungsgeschichte nach der herrschenden Meinung im politischen Raum voraussichtlich erfolglos sein werden. KI-basierte Entscheidungen beruhen auf statistischen Annahmen. Bei der gerichtlichen Prüfung eines Einzelschicksals darf hingegen kein Raum für Wahrscheinlichkeitsberechnungen bestehen.

Die Anwaltschaft verwendet schon längst KI-gestützte Anwendungen, sei es zur Zusammenfassung von Mandantengesprächen, Rechtsberatung per Chat-Bot, Erstellung von Schriftsätzen oder Ermittlung der Prozesschancen. Legal Tech Anbieter sind seit Jahren darauf spezialisiert, die Arbeitsprozesse eines Rechtsanwalts durch modernste Technologien zu optimieren. Massenklagen zahlreicher Mandanten können nahezu zeitgleich bei verschiedenen Gerichten erhoben werden. Dies geschieht zum Beispiel bei Rechtsbehelfen gegen Bescheide in Zusammenhang mit der Grundsteuer. Das Rechtsanwaltsvergütungsgesetz differenziert nicht nach Aufwand, sondern nach Anzahl der gerichtlichen Verfahren.[25] Nachvollziehbar, dass die Anwaltschaft den Einsatz von KI bei den Gerichten fordert, um ihre zahlreichen Klageverfahren schneller zu entscheiden. Ebenso verständlich ist, dass Politik und Anwälte fordern, Gerichte im Sinne der Waffengleichheit ebenfalls mit KI auszustatten. Allerdings meint der Begriff der Waffengleichheit etwas anderes. Sie ist ein prozessualer Grundsatz, der gewährleisten soll, dass jeder Beteiligte vor einer gerichtlichen Entscheidung gleichermaßen die Gelegenheit hat, vor den Gerichten seine Sicht der Dinge zu äußern.[26] Die Beteiligten sollen Gelegenheit haben, auf eine bevorstehende Entscheidung Einfluss zu nehmen. Das Gericht darf keine Überraschungsentscheidungen treffen. Erst recht gibt es keine heimlichen Entscheidungen. Ob Kläger oder Angeklagter, das Gericht darf keinen Wissensvorsprung haben und muss Akteneinsicht gewähren. Die Waffengleichheit stellt sicher, dass trotz des Machtungleichgewichts zwischen Bürger und Staat ein faires Verfahren stattfindet. In einem Rechtsstaat funktioniert dieser Gedanke nicht umgekehrt. Die Anwaltschaft übt keine Macht aus, vor der die Gerichte geschützt werden müssen.

KI-gestützte Urteilsentwürfe gewährleisten auch per se kein „faireres“ Verfahren. Nur weil die KI nie hungrig, nie schlecht gelaunt, nie überarbeitet ist, trifft sie keine besseren Entscheidungen als der menschliche Richter. Es ist zu banal, die Qualität einer richterlichen Entscheidung danach zu beurteilen, ob die menschlichen Grundbedürfnisse befriedigt waren. Eine gute Entscheidung kann auch darin liegen, gar nicht streitig zu entscheiden, beispielsweise weil die Beteiligten sich gütlich geeinigt haben oder sich das Verfahren aus sonstigen Gründen erledigt hat. Diese Formen der guten Entscheidungen werden weder in Datenbanken noch auf den Webseiten der Gerichte veröffentlicht. Veröffentlicht wird häufig nur das, was aus Sicht des Richters rechtlich komplex oder aus anderen Gründen interessant für die Öffentlichkeit sein könnte. Das führt dazu, dass lediglich ein Bruchteil aller gerichtlichen Entscheidungen überhaupt veröffentlicht werden. Wird die KI mit diesen wenigen, ausgewählten Entscheidungen trainiert, ist das Ergebnis nicht unbedingt fair, denn auch eine falsche Entscheidung kann in Rechtskraft erwachsen. Setzt der Staat KI in der Rechtsprechung ein, dann muss er nicht nur diese Voraussetzungen beachten. Er muss die Anonymisierung von Entscheidungen sicherstellen. Sinnvoll scheint es, die Ermittlung – nicht Auswertung – höchstrichterlicher Rechtsprechung und aktueller Erkenntnisquellen, etwa im Asylrecht, zu nutzen. Interessant sind Hilfen bei der sprachlichen Plausibilitäts- und Rechtschreibprüfung der Entscheidung und bei Übersetzungen, solange sie nicht amtlich und damit rechtsverbindlich sein müssen, sondern zum Verständnis für Bürger mit keinen oder geringen Deutschkenntnissen oder z.B. bei blinden Menschen beitragen.

VI. Eine Lösung für das Kardinalproblem

Es muss aber auch eine Lösung für das Kardinalproblem, nämlich die Wahrung der Entscheidungshoheit des Richters gefunden werden, die die KI-Verordnung zur conditio sine qua non eines jeden Einsatzes von Hochrisiko-KI macht. Dabei gibt es zunächst unproblematische Fälle. Sprachbasierte Fragen und Antworten bei der Aktenrecherche sind gut. Hat der Richter die Akte gelesen und will er danach prüfen, wo sich eine bestimmte Zeugenaussage findet, ist ein Sprachbot ein wertvoller Helfer. Aber wie ist es, wenn der Richter seine juristische Reflexionsfähigkeit durch aktive Selbsthinterfragung optimieren will? Die KI als Advocatus Diaboli, aber ohne Recht zur Entscheidung einzusetzen, ist ein Ansatz. Man kennt den Mechanismus vom Videoassistenten in der Fußballbundesliga. Der Schiedsrichter auf dem Platz muss als Spielleiter in Echtzeit Entscheidungen etwa über Vorteil oder Foulspiel treffen, die in einer Spielertraube kaum möglich sind. Deshalb assistiert ihm ein Kollege im sogenannten „Kölner Keller“, der die Szene über verschiedene Kameraperspektiven und in Zeitlupe angeschaut hat. Gelangt der Assistent zu der Überzeugung, dass der Schiedsrichter auf dem Platz eine grobe Fehlentscheidung getroffen hat, ruft er ihn an den Spielfeldrand und bietet ihm die Bilder der Szene an. Auf Basis dieses ergänzenden Wissens entscheidet der Schiedsrichter auf dem Platz in eigener Verantwortung über die Revision seines Urteils. Dieses Prinzip kann sich die Justiz zunutze machen. Der Justizbot liest das richterliche Urteil und bietet als technischer Advocatus Diaboli des Rechtsstaats bei einer aus den Daten belegbaren potenziellen Fehlentscheidung eine alternative Bewertung an, über die der Richter entscheidet. Damit ist das Primat menschlicher Entscheidung gewahrt.

VII. Mögliche Schlüsse für den Trilog

Was bedeutet das für die Trilog-Verhandlungen zur KI-Verordnung? Nach dem Kommissions-Entwurf unterfällt der Einsatz von spezifisch für diesen Zweck ausgerichteten KI-Systemen, die Richter bei der Ermittlung und Auslegung von Sachverhalten und Rechtsvorschriften sowie der Rechtsanwendung „unterstützen“, dem Hochrisikobereich. Das Parlament schlägt mit „verwenden“ oder „auf ähnliche Weise einsetzen“ schwächere Formulierungen vor. Damit die richterliche Entscheidung in all ihren Stadien frei von rechtlich unzulässigen Einflüssen von KI-Systemen bleibt, muss der Gesetzgeber dies sicherstellen. Wenn das von KI begleitete Recht nicht gegen Art. 47 GrCH verstoßen soll, der wie Art. 6 EMRK das Recht auf ein (menschliches) Gericht gewährt, sollte die Norm über die menschliche Aufsicht über Hochrisiko-KI-Systeme (Art 14) durch einen Absatz wie folgenden ergänzt werden. „Bei den in Anhang III Nr. 8 a genannten Hochrisiko-KI-Systemen muss sichergestellt werden, dass diese KI-Systeme – unter Einschluss eines KI-Systems für allgemeine Zwecke, das nicht als Hochrisiko-KI-System eingestuft ist – die richterliche oder behördliche Entscheidung nicht beeinflusst, sondern den menschlichen Entscheider auf mögliche Fehlentscheidungen hinweist, die er bei seiner Entscheidung berücksichtigen soll.“ Danach kommt es auf die Anwendung an.

VIII. Fazit

Die Gerichte, allen voran der Europäische Gerichtshof und hierzulande das Bundesverfassungsgericht, müssen sich technischen Lösungen in ihren Entscheidungen öffnen und Digitalkompetenz erlangen, die verantwortbare Entscheidungen in der digitalisierten Welt ermöglichen. Justiz und Verwaltung müssen sich neben den Möglichkeiten, die ein Einsatz von KI bringt, auch deren Risiken vor Augen halten. Verantwortung ist ein besserer Ratgeber als Euphorie und Zauberlehrlinge sind im Rechtsstaat fehl am Platz. Am Ende geht es darum, die Maschinen zu beherrschen und im Rahmen des Rechts einzusetzen. Die KI als technischer Advocatus Diaboli ist im Rechtsstaat willkommen, als Iudex ex Machina ist sie es nicht.

Kristin Benedikt ist Richterin am Verwaltungsgericht Regensburg und Mitglied im Vorstand der Gesellschaft für Datenschutz und Datensicherheit (GDD) e.V. sowie Mitherausgeberin des demnächst erscheinenden Praxishandbuchs Datenschutz im Internet.

Prof. Dr. Rolf Schwartmann ist Leiter der Kölner Forschungsstelle für Medienrecht an der TH Köln und Vorsitzender der Gesellschaft für Datenschutz und Datensicherheit (GDD) e.V. Er ist Mitherausgeber des demnächst erscheinenden Heidelberger Kommentars zur KI-Verordnung.

Prof. Dr. Paul Stelkens ist Vorsitzender Richter am Oberverwaltungsgericht NRW a.D. und Gründungsherausgeber eines Kommentars zum Verwaltungsverfahrensgesetz.

[1] Der Beitrag ist zuvor erschienen in F.A.Z. vom 07.09.2023.

[2] DRiZ 2023, 248 (249).

[3] Allen & Overy, Pressemitteilung vom 15.02.2023, abrufbar unter: https://www. allenovery.com/en-gb/germany/news-and-insights/news/ao-announcesexclusive-launch-partnership-with-harvey (letzter Abruf: 22.08.2023).

[4] Neue Züricher Zeitung, Presseartikel vom 30.07.2023, abrufbar unter: https:// www.nzz.ch/wirtschaft/noch-erfinden-chatbots-wie-chatgpt-einfach-gerichtsurteile-doch-sie-werden-das-jobprofil-von-juristen-massiv-veraendern-ld.1747850 (letzter Abruf: 22.08.2023).

[5] Hartmann/Ciperre/Beeck, Datamining in der Strafjustiz?, RDV 3/2023, 147-152.

[6] Schlussanträge des Generalanwalts Priit Pikamäe vom 16.03.2023, C 634/21 (ECLI:EU:C:2023:220).

[7] Vgl. Art. 22 Abs. 1 DS-GVO.

[8] Schlussanträge des Generalanwalts Priit Pikamäe vom 16.03.2023, C 634/21 ((ECLI:EU:C:2023:220), Rn. 46.

[9] BVerfG, Urteil des Ersten Senats vom 16.02.2023 – 1 BvR 1547/19 – 1 BvR 2634/20.

[10] FD-StrafR 2022, 451975.

[11] BVerfG, Urteil des Ersten Senats vom 16.02.2023 – 1 BvR 1547/19 – 1 BvR 2634/20, Rn. 100, 108.

[12] Art. 3 Abs. 1 Nr. 1c Abänderungen des Europäischen Parlaments vom 14.06.2023 zu dem Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz über Künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD))(1)

[13] Art. 3 Abs. 1 Nr. 1d Abänderungen des Europäischen Parlaments vom 14.06.2023 zu dem Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz über Künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD))(1).

[14] Art. 28b Abänderungen des Europäischen Parlaments vom 14.06.2023 zu dem Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz über Künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD))(1).

[15] Art. 4a Abänderungen des Europäischen Parlaments vom 14.06.2023 zu dem Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz über Künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD))(1).

[16] Anhang III Nr. 8 (Hochrisiko-Systeme gemäß Art.  6 Abs.  2) des Vorschlags für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz über Künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union COM/2021/206 final.

[17] Artt.  9, 11 Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union COM/2021/206 final.

[18] Art. 29a Abänderungen des Europäischen Parlaments vom 14.06.2023 zu dem Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz über Künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD))(1).

[19] Gutachten der Datenethikkommission vom 23.10.2019, S. 204, abrufbar unter https://www.bmi.bund.de/SharedDocs/downloads/DE/publikationen/themen/it-digitalpolitik/gutachten-datenethikkommission.pdf?__blob=publicationFile&v=6 (letzter Abruf: 22.8.2023)

[20] § 184 GVG.

[21] § 117 Abs. 2 Nr. 5 VwGO, § 313 Abs. 1 Nr. 6 ZPO, § 105 Abs. 2 Nr. 5 FGO, § 60 Abs. 1 ArbGG, § 267 Abs. 1 StPO

[22] Hessenschau, Künstliche Intelligenz hilft bei Massen-Urt. v. 09.05.2022, abrufbar unter https://www.hessenschau.de/panorama/amtsgericht-frankfurt-kuenstliche-intelligenz-hilft-bei-massen-urteilen,amtsgericht-roboter-100.html (letzter Abruf: 22.08.2023).

[23] IBM, OLG Stuttgart pilotiert IBM-Massenverfahrensassistenten zur Fallbearbeitung in Dieselabgasverfahren, 07.12.2022, abrufbar unter https://de.newsroom.ibm. com/2022-12-07-OLG-Stuttgart-pilotiert-IBM-Massenverfahrensassistenten-zurFallbearbeitung-in-Dieselabgasverfahren (letzter Abruf: 22.08.2023).

[24] Art. 6 i.V.m. Art. 7 VO (EG) 261/2004.

[25] Vgl. §§ 2, 7 RVG.

[26] BVerfG, Beschl. v. 30.09.2018 – 1 BvR 1783/17, Rn. 15; v. Münch/Kunig/Kunig/ Saliger, 7. Aufl. 2021, GG Art. 103 Rn. 7.