Bericht : Einige persönliche Überlegungen zum EU AI Act: Ein bittersüßes Ende : aus der RDV 2/2024, Seite 123-125
Ich habe einige persönliche Überlegungen zum (fast verabschiedeten) EU-KI-Gesetz niedergeschrieben. Stolz auf viele Errungenschaften, enttäuscht über das ungenutzte Potenzial, aber wirklich schockiert über die Art und Weise, wie die EU derzeit Gesetze macht. Was können wir jetzt tun, um sicherzustellen, dass das Gesetz doch noch zu einer Erfolgsgeschichte wird?
Insgesamt 1004 Tage, nachdem die Europäische Kommission am Mittwoch, den 21.04.2021, das AI Act vorgelegt hat, wurden die Gesetzgebungsverhandlungen am Freitag, den 19. Januar 2024, mit der letzten technischen Sitzung abgeschlossen. Während der Bericht des Europäischen Parlaments in 43 technischen und 12 geheimen Sitzungen fertiggestellt wurde, wurden die interinstitutionellen Diskussionen nach 35 technischen Trilogsitzungen, 7 geheimen Sitzungen und 6 politischen Trilogsitzungen abgeschlossen. Eine überraschende Zahl für das heutige Brüssel, das in den letzten Jahren bei der Verabschiedung neuer Gesetze in hohem Tempo immer effizienter geworden ist.
War der langwierige Prozess das Ergebnis eines komplexen und dynamischen Themas? Auf den Fleiß und das Engagement der politischen Entscheidungsträger? Der Anzahl der „besonderen“ Personen und Kontroversen? Oder auf systemische und strukturelle Probleme im EU-Politikzyklus? Am Ende war es wahrscheinlich ein bisschen von allem. Die Missachtung der betterregulation-Prinzipien war für mich der schockierendste Faktor, aber ich werde in einem Aufsatz, der später in diesem Jahr veröffentlicht wird, mehr zu diesem Thema sagen. Trotz der holprigen Fahrt haben die führenden IMCO/LIBE-Ausschüsse am Dienstagmorgen die Ergebnisse der Trilog-Verhandlungen mit einer überwältigenden Mehrheit von +71 o7 -8 angenommen. Ein Happy End? Nun, Axel Voss und ich sind da nicht so sicher.
Die Siege
Ja – es gibt viel Positives. Das AI Act ist viel zukunftssicherer als andere digitale Regelwerke der EU und es probiert neue, vielversprechende Wege der Rechtsetzung aus. Die endgültige Fassung schafft ein gutes Gleichgewicht zwischen denjenigen, die über die Möglichkeiten der KI besorgt sind, und denjenigen, die sie besser nutzen wollen. Einige unserer persönlichen Highlights und Erfolge …
Wir haben die internationale Abstimmung und Koordinierung des Gesetzgebungsverfahrens sichergestellt, insbesondere mit unseren Freunden vom OECD.AI-Sekretariat in Paris.
In Art. 2 wurden Ausnahmen für die wissenschaftliche Forschung mit KI, für den gesamten Entwicklungsprozess und für den Open-Source-Sektor hinzugefügt.
Umwandlung der starren Hochrisiko-Verpflichtungen in Art. 8 in flexible Prinzipien, die den Kontext des Einsatzes eines KI-Systems berücksichtigen und nur das technisch Machbare verlangen. Die konkreten Verpflichtungen in den Artt. 9 bis 15 wurden ebenfalls stark verbessert.
In Art. 28 wurde eine Verpflichtung aufgenommen, die den Informationsaustausch entlang der KI-Wertschöpfungskette zwischen den verschiedenen Marktteilnehmern beschleunigen wird, damit nachgelagerte Anbieter und Einführer die Vorschriften des KI-Gesetzes einhalten können.
Erarbeitung neuer Möglichkeiten zur Offenlegung und Rückverfolgung künstlich erzeugter Inhalte sowie zur Information der Endnutzer darüber, dass sie es mit einem KI-Chatbot zu tun haben (Art. 52).
Durchsetzung eines innovationsfreundlichen zweistufigen Ansatzes, der sich auf spezifische Risiken von systemischen Basismodellen konzentriert (Art. 52a ff.) und der sicherstellt, dass nachgelagerte Anbieter, die Basismodelle integrieren oder nutzen, diese besser verstehen und alle notwendigen Informationen erhalten.
Förderung von öffentlich-privaten Partnerschaften über regulatorische Sandkästen (Artt. 53 ff) und Institutionalisierung eines regelmäßigen Austauschs mit Interessenvertretern im gesamten Text, um eine integrativere und evidenzbasierte Umsetzung des Gesetzes zu erleichtern.
Sicherstellung harmonisierter Standards (Art. 40) und Leitlinien (Art. 82a) im Text, um die Einhaltung des KI-Gesetzes einfacher und kostengünstiger zu machen und gleichzeitig eine Präzisierung des Gesetzes außerhalb des schwerfälligen Gesetzgebungsverfahrens zu ermöglichen.
Bereits in unserem JURI-Ausschuss INL wurde vorgeschlagen, delegierte Rechtsakte mit spezifischen Artikeln und Anhängen zu kombinieren, um der Europäischen Kommission eine rasche Anpassung des Textes zu ermöglichen und das Gesetz mit dem technologischen Fortschritt Schritt halten zu lassen.
Bürokratieabbau im gesamten Text durch Streichung insbesondere derjenigen Teile, die parallele Verpflichtungen in Bezug auf bereits bestehende Verfahren geschaffen hätten (z.B. sektorale Rechtsvorschriften im medizinischen oder Finanzsektor).
Die Niederlagen
Die Liste ist beeindruckend, und ich könnte sie noch eine Weile fortsetzen. Ich bin der festen Überzeugung, dass das Europäische Parlament den AI Act stark verbessert hat, indem es jedes einzelne Detail des Gesetzes diskutiert und viele großartige Ideen hinzugefügt hat. Das EU-KI-Gesetz und die Art und Weise, wie es verhandelt wurde, hat jedoch auch viele Mängel. Tatsächlich wird das Gesetz von der Verwaltung des Parlaments bereits als Paradebeispiel genutzt, um intern auf Reformen zu drängen und wesentliche Änderungen an der Art und Weise, wie die EU-Gesetze produziert, zu fordern. Ich könnte viele Seiten schreiben und viele Beispiele anführen, die unterstreichen, wie groß das Risiko für unser europäisches Projekt ist, aber lassen Sie uns in diesem Art. auf den Inhalt des EU-KI-Gesetzes konzentrieren. In Axels und meiner internen Bewertung haben wir 32 Pros und 32 Kontras gefunden. Unsere negativen Ergebnisse lassen sich in drei Gruppen einteilen:
Erstens ist das KI-Gesetz unserer Meinung nach konzeptionell nicht geeignet, um KI zu regeln. Wir haben von Anfang an darauf hingewiesen, dass die Vermischung von Produktsicherheit und Grundrechten sowie die Verwendung von NLFKonzepten wie „wesentliche Änderung“ für sich entwickelnde KI-Systeme nicht funktioniert. Diese Art von Technologie ist nicht mit einem Staubsauger oder einem Spielzeug meines Sohnes Leo vergleichbar. Außerdem ist der Schutz der Grundrechte etwas, mit dem das NLF-System keine Erfahrung hat Es bestand jedoch keine Bereitschaft, konzeptionelle Änderungen vorzunehmen, obwohl die sich aus dieser konzeptionellen Wahl ergebenden rechtlichen Probleme während der Verhandlungen mehr als deutlich wurden.
Zweitens erfüllt der endgültige Text nicht das Hauptziel des Gesetzes, nämlich Rechtssicherheit oder ein Ökosystem des Vertrauens zu schaffen, wie die Europäische Kommission es nennt. Im Gegenteil, die meisten Definitionen in Art. 3 sind vage, die Verfahren sind unvollständig und rechtlich fragwürdig (z.B. die Benennung systemischer GPAI-Modelle), in mehreren Teilen fehlen empirische Belege (z.B. warum wurde die CEPS-Studie, die der Folgenabschätzung als Anhang beigefügt war, nie aktualisiert?), es gibt rechtliche Überschneidungen mit anderen Gesetzen (z.B. DS-GVO, DSA, DS-GVO, MDR), und – laut den Juristischen Diensten aller drei EU-Institutionen – entspricht die Qualität der rechtlichen Abfassung nicht den EU-Standards. Auf den Europäischen Gerichtshof wird viel Arbeit zukommen…
Drittens schafft das AI-Gesetz ein überkompliziertes Governance-System. Die Mischung aus NLF- und Nicht-NLF-Behörden auf EU- und nationaler Ebene wird zu zahlreichen Machtkämpfen führen. Jeder hatte Angst, auch nur ein wenig in die nationalen Freiheiten bei der Gestaltung des Governance-Systems des AI-Gesetzes einzugreifen. Infolgedessen werden die Mitgliedstaaten sehr unterschiedliche zuständige nationale Behörden benennen, was – trotz des Schutzverfahrens der Union in Art. 66 (zur Erinnerung: das KI-Gesetz ist kein einfaches NLF-Gesetz) – zu sehr unterschiedlichen Auslegungen und Durchsetzungsmaßnahmen führen wird. Beispielsweise wird die Cybersicherheitsbehörde, die von Mitgliedstaat A eingesetzt wird, natürlich eine ganz andere Sichtweise auf KI haben als die Datenschutzbehörde von Mitgliedstaat B. Und vergessen Sie nicht, dass es noch viele weitere Behörden gibt (z.B. EZB, ENISA), die ein Mitspracherecht beim Umgang mit KI haben wollen und vielleicht nicht sehr kompromissbereit sind.
Zusammengenommen könnten diese drei Punkte die Compliance-Kosten für Anbieter und Anwender von KI erheblich erhöhen. Vor allem KMU und Start-ups aus der EU könnten es am Ende als zu riskant empfinden, KI zu entwickeln oder einzusetzen … oder sie sind gezwungen, teure Audits und Zertifizierungen durch Dritte in Anspruch zu nehmen, um hohe Geldstrafen zu vermeiden. Sollte dieses Szenario Realität werden, wird die EU sicherlich nicht zu einem weltweit führenden Unternehmen im Bereich der KI werden. Ganz im Gegenteil, das KI-Gesetz würde stark nach hinten losgehen und die digitale Rückständigkeit der EU weiter verstärken.
Ein optimistischer Ausblick
Die gute Nachricht ist, dass dieses Szenario nicht eintreten muss. Es ist noch Zeit und es gibt mehrere Möglichkeiten, eine eskalierende Rechtsunsicherheit zu verhindern, wenn das KI-Gesetz zwischen 2025 und 27 schrittweise in Kraft tritt. Wenn wir derzeit Interviews geben, Keynotes halten, an Panels teilnehmen oder Podcasts machen, rufen Axel Voss und ich Zivilgesellschaft, Wissenschaft und Wirtschaft zum Handeln auf. Es ist keine Zeit zum Feiern, zumal das KI-Gesetz bei weitem nicht perfekt ist. Was die EU jetzt braucht, ist eine gemeinsame Anstrengung aller beteiligten öffentlichen und privaten Akteure! Wir brauchen Ihre Hilfe, um das Gesetz zu verbessern und – gemeinsam – rasch einen praktikablen EURahmen für die KI-Governance zu schaffen. Vier Maßnahmen der Interessengruppen scheinen entscheidend zu sein:
Engagieren Sie sich bei CEN und CENELEC und den nationalen Gremien wie dem DIN Deutsches Institut für Normung e.V. Unser Freund Sebastian Hallensleben braucht Ihre Beiträge, um sicherzustellen, dass die neuen harmonisierten technischen Normen rechtzeitig zur Verfügung stehen und für die vielen verschiedenen Sektoren und Anwendungsfälle von KISystemen geeignet sind.
Nutzen Sie die vielen neuen Formen von öffentlich-privaten Partnerschaften im EU-KI-Gesetz und beantragen Sie insbesondere Regulierungs-Sandboxen. In diesen können Sie in einen engen Dialog mit den zuständigen nationalen Behörden treten und Ihre KI-Systeme verbessern und sogar unter realen Bedingungen testen. Ich bin der festen Überzeugung, dass sowohl der öffentliche als auch der private Sektor erheblich von dem gemeinsamen regulatorischen Lernen profitieren werden, wenn diese Orte von den Mitgliedstaaten angemessen finanziert und von den Unternehmen intensive genutzt werden. Das erste Feedback von Spain’s AI-Sandbox klingt sehr vielversprechend.
Teilen Sie Ihre Erfahrungen und Ihr Fachwissen mit Brüssel! Schicken Sie Ihre KI-Anwendungsfälle an die Europäische Kommission, die gerade mit der Ausarbeitung der Leitlinien beginnt, mit denen wir sie in Artt. 6 und 82a beauftragt haben. Zeigen Sie ihnen, welche Technologien als „KI-System“ oder als „Hochrisikotechnologie“ betrachtet werden sollten und welche nicht. Ihre Beiträge sind auch der Schlüssel für sinnvolle Durchführungs- und delegierte Rechtsakte. Lassen Sie diese Gelegenheit nicht verstreichen!
Identifizieren und motivieren Sie technische Experten, die für das AI-Büro, die zuständigen nationalen Behörden, die Marktüberwachungsbehörden und die benannten Behörden sowie die benannten Stellen arbeiten. Die Wirksamkeit des wissenschaftlichen Gremiums und des Beirats hängt auch von der Mitgliedschaft vieler führender GPAI-Modell- und AI-Experten ab. Obwohl sie in großen Technologieunternehmen viel mehr verdienen könnten, könnte sie die Chance, etwas zu bewirken, reizen. Vielleicht können Sie etwas Überzeugungsarbeit leisten?
Lasst es uns zum Laufen bringen!
Quelle: https://www.kaizenner.eu/post/reflections-on-aiact (Übersetzt durch DeepL)
Kai Zenner ist Büroleiter und Digitalreferent für MdEP Axel Voss und als Experte des AI Netzwerks der OECD tätig.