DA+

Aufsatz : KI: Vom Mythos zur Realität : aus der RDV 6/2023, Seite 352-356

Lesezeit 16 Min.

Zwei Buchstaben reichen und Unternehmer und Politiker träumen und schwärmen: bspw. „KI als Regisseur“[1] oder „KI übernimmt Zeitungslayout“[2] . Die gleichen zwei Buchstaben lassen berufserfahrene Informatiker die Augen verdrehen.

Erfahrungen mit algorithmisch erstellten Vorschlägen oder Entscheidungen zeigen deutlich: Fehler können Menschenleben kosten und Leid verursachen. Ein neuseeländischer Discounter bietet seinen Kunden die Möglichkeit, Rezepte aus vorgegebenen Zutaten mittels KI zu erstellen. Zu den Vorschlägen zählen ein Eintopf aus Menschenfleisch, aber auch ein Duftgemisch, das lebensgefährlich sein soll.[3] 5.000 USD Strafe mussten ein Rechtsanwalt, sein Kanzleipartner und die Kanzlei zahlen, weil der Anwalt von ChatGPT erfundene Präzedenzfälle in ein Gerichtsverfahren einbrachte.[4] 430 Mio. Euro Schadensersatz zahlte die australische Regierung für ein fehlerhaftes und rechtswidriges Programm, das 0,5 Mio. Menschen aufforderte, Schulden zurückzuzahlen, die sie nicht besaßen. Elternpaare mit doppelter Staatsbürgerschaft wurden durch einen Algorithmus der niederländischen Regierung fälschlicherweise des Sozialhilfebetrugs bezichtig. Maßgeblich für den Algorithmus war die doppelte Staatsbürgerschaft.[5]

Sofern KI personenbezogene Daten verarbeiten soll oder mit diesen „trainiert“ werden soll, bedarf es einer datenschutzrechtlichen Zulässigkeitsprüfung. Der vorliegende Beitrag stellt erste Überlegungen an, wie sich die technologieneutralen Vorgaben der DS-GVO auf die Prüfung von KI anwenden lassen. Ausgehend von technischen Prinzipien, die produktunabhängig sind, werden Hinweise zur Datenschutzprüfung abgeleitet. Weitere regulatorische Anforderungen, die sich bspw. aus dem AI Act ergeben können, bleiben einer gesonderten Betrachtung vorbehalten.[6]

I. Prozess- vs. Systemprüfung

Im Kern reguliert die DS-GVO-Datenverarbeitungsprozesse. Dies wird insbesondere durch den Begriff „Verarbeitung“ deutlich. Art. 4 Nr. 2 DS-GVO definiert Verarbeitung als Vorgang oder Vorgangsreihe. Die Festlegungen von Zwecken und Löschfristen ergeben erst im Kontext von Verarbeitungsprozessen Sinn.

Eine datenschutzrechtliche Betrachtung von Softwareanwendungen, zu denen auch KI zählt, bedeutet, dass die Software im Kontext ihrer prozessualen Einbettung zu betrachten ist. Ob eine Software X für sich genommen datenschutzrechtlich zulässig ist, lässt sich folglich nicht beantworten. Eine Nutzung der Software X zur automatischen Kreditgewährung lässt sich jedoch entlang der DS-GVO bewerten.

II. Von der Vermenschlichung zum Missverständnis

Um einen softwaregestützten Verarbeitungsprozess zu bewerten, bedarf es eines hinreichenden Verständnisses, wie die eingesetzte Software funktioniert. Software, die KI genannt wird, stellt keine Ausnahme dar.

Die im Zusammenhang mit KI genutzten Begriffe „Intelligenz“, „lernen“ und „erkennen“ suggerieren ein Verständnis oder gar ein Bewusstsein, die technisch nicht vorhanden sind. Die Begriffe vernebeln mehr, als dass sie erhellen. Insofern lohnt sich ein Blick auf grundlegende Prinzipien.

Mit KI werden bestimmte Arten von Algorithmen bezeichnet, die sich in den vergangenen 68 Jahren[7] , seit denen der Begriff verwendet wird und das entsprechende Forschungsgebiet besteht, herausgebildet haben. Dazu zählen bspw. Algorithmen zur Mustererkennung, Mustervorhersage, Wissensrepräsentation, Schlussfolgern, Planung, Entscheidungsfindung, Optimierung, Multiagentensimulation, Text- und Bilderzeugung.

Es gibt nicht „den“ KI-Algorithmus. Die verwendete Technik – oder genauer das Vorgehen – gibt Aufschluss, was ein Algorithmus prinzipiell können sollte und wo seine Grenzen liegen. Basierend auf diesen Angaben lässt sich abschätzen, ob der Algorithmus prinzipiell geeignet wäre, den angestrebten Zweck zu erreichen. Ein Algorithmus zum Generieren von Text (auch „generative KI“ genannt) erzeugt Texte und kann keine Fakten analysieren oder aus seinem „Lernbestand“ hervorholen. Insofern verwundert es nicht, dass eine Suchmaschine, die einen generativen Algorithmus nutzt, statt Fakten Fiction liefert.[8]

Im Grundsatz gibt es keinen Unterschied zwischen KI-Algorithmen und „normalen“ Algorithmen, d.h. es gelten die folgenden grundlegenden Prinzipien.

Die Wirklichkeit ist für eine Abbildung in einem Algorithmus zu komplex. Deshalb nimmt der Softwareentwickler nur die Faktoren in seinen Algorithmus auf, die nach seiner Vorstellung für die Problemlösung hilfreich oder erforderlich sind. Er modelliert die Wirklichkeit. Faktoren, die nicht im Modell vorkommen, kann der Algorithmus nicht verarbeiten. Wie gut das zugrunde liegende Modell die relevanten Faktoren abbildet, wird vom Hersteller regelmäßig nicht offengelegt. Aller Erfahrung nach werden die Faktoren intuitiv oder durch Versuch und Irrtum ermittelt, seltener durch wissenschaftliche Analyse. Nur in seltenen Fällen gibt es unabhängige Untersuchungen oder Tests.

Soll ein Algorithmus Muster erkennen, bspw. Gesichter, kann auf eine wissenschaftliche Fundierung eher verzichtet werden, als bei einem Algorithmus, der Emotionen erkennen soll. Die Güte einer Gesichtserkennung lässt sich einfach testen. Das Testergebnis ist eindeutig: Person erkannt oder nicht erkannt.

Bei der Erkennung von Emotionen muss der Entwickler – nicht offengelegte – Annahmen treffen: Was ist eine Emotion? Wie lässt sich eine Emotion bspw. aus der Stimme ableiten? Im Ergebnis schreibt der Algorithmus Personen Emotionen zu, unabhängig davon ob sie selbst oder ein Beobachter diese Zuschreibung teilen. Allerdings wird die Zuschreibung als Fakt präsentiert. Für die Beurteilung der Validität ist eine wissenschaftliche Fundierung und Verifikation der Erkennung wesentlich. Datenschutzrechtlich zahlt eine solche wissenschaftliche Fundierung und Verifikation auf die Geeignetheit des Mittels zur Zweckerreichung ein.

Im Grunde beschreibt ein Algorithmus, auf welche Eingabe welche Ausgabe oder Aktion folgt. Diese Verarbeitungsregeln legen menschliche Entwickler fest. Klassischerweise erfolgt die Festlegung in Form von Wenn-Dann-Regeln. Bei bestimmten Aufgaben, wie z.B. Mustererkennung oder Optimierung, gerät dieses Vorgehen wegen der immensen Eingabemöglichkeiten an seine Grenzen.

Die Lösung liegt darin, im Entwicklungsprozess die Lösung nicht direkt im Programmcode abzubilden, sondern erst später berechnen zu lassen. Dieses Berechnen wird „Trainieren“ genannt.

Ein wesentliches Merkmal von Mustererkennungs- oder generativen KI-Algorithmen ist, dass sie ihre einprogrammierten Regeln durch Feedback-Schleifen in engen Grenzen verändern können. Der Entwickler legt dazu dem Algorithmus Trainingsdaten vor. Diese Trainingsdaten bestehen aus Tupeln. Jedes Tupel gibt zu einem Satz Eingabedaten und die erwünschte Ausgabe an. Bspw. zeigt die Eingabe das Foto des Besprechungszimmers der GDD und die erwartete Ausgabe wäre „Besprechungszimmer“. Der Algorithmus modifiziert seine internen Regeln solange, bis sein Berechnungsergebnis meistens den erwünschten Ausgaben entspricht. Diese Phase wird „Lernen“ genannt.

„Lernen“ heißt nicht, dass der Algorithmus etwas im menschlichen Sinn versteht. Vielmehr besagt es, dass er für eine vorgegebene Eingabe meistens eine vom Entwickler festgelegte Antwort erzeugt. Man kann im vorstehenden Beispiel einem Bilderkennungsalgorithmus genauso gut beibringen, beim Foto des GDD-Besprechungszimmers „Spielzimmer“ als Antwort auszugeben.

Der Algorithmus bestimmt Wahrscheinlichkeiten ohne zu verstehen, was er tut. Im Grunde würfelt er. Bei generativen Algorithmen, wie z.B. ChatGTP, bedeutet dieses, dass der Algorithmus nachsieht, welche Wörter in seinem Trainingsmaterial auf die vorliegende Frage des Benutzers am häufigsten vorkamen. Diese Wörter gibt er aus. Dieses Würfeln lässt beim menschlichen Betrachter den Eindruck von „Intelligenz“ entstehen.

Da im Programmcode die Relation von Eingabe zu Ausgabe nicht mehr vollständig festgelegt wird, lässt sich nicht ohne Hilfsmittel ablesen, warum der Algorithmus aus einer gegebenen Eingabe eine bestimmte Ausgabe erzeugt. Somit wird eine datenschutzrechtliche Prüfung erschwert.

Bei KI-Algorithmen kommen – neben den üblichen Fehlerquellen, Programmierfehlern oder Konzeptionsfehlern, – Trainingsdaten als weitere Fehlerquelle hinzu. Bei einem Algorithmus zur Bilderkennung wurden bspw. zum Training Fotos von Pferden verwendet. Alle Pferdefotos wiesen ein Copyrightzeichen auf. Der Algorithmus stützte seine Erkennung auf das Copyrightzeichen und nicht auf die abgebildete Gestalt.[9] Um die Funktionsweise nachvollziehen zu können, sind zusätzliche Softwareprogramme und Untersuchungen erforderlich.

Der Algorithmus selbst stellt ein Modell der Wirklichkeit dar. Mit der Auswahl der Trainingsdaten legt der Entwickler fest, welche Faktoren aus der Wirklichkeit seinen Algorithmus kalibrieren sollen. Die Auswahl der Trainingsdaten stellt damit eine erneute Modellierung, d.h. Reduktion der Wirklichkeit dar. Bilder als Trainingsdaten bedürfen teilweise einer Aufbereitung durch Verschlagwortung, die von Menschen vorgenommen wird. Ob bei der Aufbereitung Fehler gemacht werden, wird häufig aufgrund der Menge an Daten nicht geprüft.[10] Insofern lässt sich regelmäßig nicht für den Anwender des Algorithmus nachvollziehen, welches Modell der Wirklichkeit der Auswahl an Trainingsdaten zu Grunde lag und wie viele Fehler im Material enthalten sind.

Werden „frei zugängliche“ Daten wie Bilder oder Texte aus dem Internet genutzt und nicht inhaltlich geprüft, sind Fehler und falsche Darstellungen zu erwarten. Nutzt man bspw. Romane zum Training, bekommt man als Ausgabe nicht nur eine geschliffene Sprache, sondern der Algorithmus kennt auch Darth Vader, Magie und weiß, dass die Erde eine Scheibe ist. Selbst wissenschaftliche Beiträge eignen sich nur bedingt zum Training, da diese überholt oder auch unzutreffend sein können. Des Weiteren lassen sich wissenschaftliche Beiträge erst im Kontext weiterer Beiträge verstehen und einordnen. Ein solches Verstehen können Algorithmen nicht leisten.

III. Grundlegendes Prüfungsvorgehen

Wie ein Prozess datenschutzrechtlich zu prüfen ist, ist in der DS-GVO im Grunde festgelegt. Werden im Prozess Algorithmen aus dem Bereich KI eingesetzt, ändert sich das Vorgehen im Grunde nicht.

Bekanntlich sind die wesentlichen Prüfschritte:

  1. Liegt ein Zweck vor?
  2. Werden ausschließlich die personenbezogenen Daten verarbeitet, die objektiv für die Zweckerreichung erforderlich sind?
  3. Erlaubt eine Rechtsgrundlage die Verarbeitung?
  4. Erfolgt die Löschung, sobald der Zweck entfallen ist oder nach Ablauf der gesetzlichen oder satzungsmäßigen Aufbewahrungspflicht?
  5. Haben nur die Personen Zugriff auf die personenbezogenen Daten, die diese für ihre Aufgabenerfüllung benötigen?
  6. Muss das Sicherheitskonzept nach Art. 32 DS-GVO erweitert werden?
  7. Entstehen für die von der Verarbeitung betroffenen Personen hohe Risiken?[11]

Die Prüfschritte 1 bis 5 müssen jeweils zu einem positiven Ergebnis führen, da andernfalls eine unrechtmäßige Datenverarbeitung vorliegt.

Es bietet sich an, den Prüfschritt 1 zu erweitern. In der ersten Stufe wird wie gehabt geprüft, ob dem Verfahren ein Zweck zu Grunde liegt. In der zweiten Stufe ist zu prüfen, ob die eingesetzte Technologie, genauer das Vorgehen des Algorithmus, grundsätzlich geeignet ist, den Zweck zu erreichen. Liegt der Zweck außerhalb dessen, was die eingesetzte Technologie üblicherweise leisten kann, ist zu prüfen, ob der konkret eingesetzte Algorithmus ausnahmsweise den Zweck umsetzen kann. Bei negativem Prüfergebnis ist die Verarbeitung grundsätzlich nicht geeignet, den angestrebten Zweck umzusetzen. Somit spricht Art. 25 Abs. 2 DS-GVO gegen den Einsatz.

Wenn Prüfschritt 7 zu bejahen ist, ist eine förmliche Datenschutz-Folgenabschätzung i.S.d. Art. 35 DS-GVO durchzuführen.

Art. 35 Abs. 1 DS-GVO nennt als eine mögliche Risikoquelle „Verwendung neuer Technologien“. Auch wenn Hersteller gerne ihre Produkte als Neuheit bezeichnen, lohnt sich eine genauere Prüfung. Die grundlegenden Funktionsweisen der Algorithmen sind bis zu 68 Jahre alt. Es handelt sich eher um eine alte Technologie, deren Leistungsfähigkeit über die Jahre zugenommen hat. Für die Risikobeurteilung von Algorithmen erscheint das Alter der Technologie nicht geeignet zu sein.

Soll der Algorithmus zu einer automatischen Entscheidung oder zum Profiling eingesetzt werden, sind die Einsatzverbote und Anforderungen an den Einsatz aus Art.  22 DS-GVO zu beachten. Da die Entscheidungsgründe im Einzelfall nachvollziehbar und prüfbar sein müssen, sollte der Entscheidungsalgorithmus die Gründe, die zur Entscheidung führen, protokollieren.

Mit Blick auf die Rechenschaftspflicht (Art. 5 Abs. 2 DS-GVO) sollte die Prüfung vollständig dokumentiert werden.

IV. Nutzung personenbezogener Daten zum Training

Betrieb und Training sind zwei unterschiedliche Zwecke und damit zu bewertende Sachverhalte. Das grundlegende Prüfungsvorgehen aus Abschnitt 4 findet auch auf die Verarbeitung personenbezogener Daten zum Training Anwendung. Für die Rechtsgrundlage kommen regelmäßig zwei Optionen in Frage, auf die nicht weiter eingegangen wird:

  • Einwilligung (Art. 6 Abs. 1 lit. a) DS-GVO) und
  • Interessenabwägung (Art. 6 Abs. 1 lit. f) DS-GVO).

Generative KI-Algorithmen können – bei geschickter Befragung – ihre Trainingsdaten preisgeben. Solche Möglichkeiten sind neben anderen Faktoren bei der Interessenabwägung zu berücksichtigen. Gibt der Algorithmus die Trainingsdaten später preis, droht eine unkontrollierte Verbreitung personenbezogener Daten. Die Interessenabwägung scheitert in so einem Fall regelmäßig. Deshalb ist sorgfältig zu testen, ob Nutzer anhand des Verhaltens des Algorithmus auf personenbezogene Trainingsdaten schließen können.

Bei Mustererkennungsalgorithmen ist die Fehlerhäufigkeit regelmäßig am geringsten, wenn Trainingsdaten als Eingabe vorkommen. Deshalb kann somit die Fehlerhäufigkeit im Einzelfall als Maß genommen werden, um zu erkennen, ob die eingegebenen Daten zu den Trainingsdaten gehörten. Auch nachträgliche Filter der Ausgabe bieten ggf. keinen ausreichenden Schutz.[12]

Da Algorithmen ihre Trainingsdaten „verraten“ können, ist kritisch zu prüfen, ob Daten zum Training genutzt werden dürfen, die nur einem eingeschränkten Nutzerkreis zugänglich sein dürfen. Bspw. E-Mails von oder an den Betriebsrat, Vorstandsprotokolle, Abmahnungen oder Daten, die für Insiderhandel genutzt werden könnten. Neben der datenschutzrechtlichen Beurteilung insbesondere hinsichtlich Art.  25 Abs.  2 DS-GVO sind weitere rechtliche Geheimhaltungsverpflichtungen zu berücksichtigen.

Möchte ein Auftragsverarbeiter personenbezogene Daten, die er im Auftrag verarbeitet, zum Training für seinen Algorithmus nutzen, stellt das eine Verarbeitung für eigene Zwecke dar. Für das Training wird der Auftragsverarbeiter zum Verantwortlichen i.S.d. Art. 4 Nr. 7 DS-GVO. Für das Training muss der Auftraggeber wie gehabt eine Rechtsgrundlage aus Artt. 6 und 9 DS-GVO zur Übermittlung besitzen. Ob eine gemeinsame Verantwortung nach Artt. 4 Nr. 7 i.V.m. 26 DS-GVO vorliegt, ist gesondert zu prüfen.

Im Moment stehen keine generalisierten, erprobten Verfahren zur Verfügung, um personenbezogene Trainingsdaten vor dem Training zu anonymisieren.[13]

V. Fehlende Nachvollziehbarkeit

Bei Algorithmen, die ihr Verhalten „festcodiert“ haben, kann der Hersteller im Prinzip exakt angeben, wie sich der Algorithmus bei einer Eingabe X verhalten wird. Das anwendende Unternehmen kann das Verhalten durch Tests nachprüfen und nachvollziehen. Sofern das Verhalten nicht im Rahmen eines Patches geändert wird, bleibt es für die ganze Nutzung der Software konstant.

Wurden Algorithmen trainiert, findet sich die EingabeAusgabe-Relation nicht mehr im Quellcode, d.h. der Hersteller kennt sie ggf. nicht. Damit kann der Anwender sich nicht mehr darauf verlassen, dass aus der Eingabe X die vom Anwender gewünschte Ausgabe Y folgt. Der Algorithmus kann auch Z ausgeben.

Dieser Sachverhalt ist für die Risikobeurteilung erheblich. Wenn X das langsame Untergehen einer Person in einem Schwimmbecken bedeutet, Y die Alarmierung der Wasseraufsicht und Z die Nichtalarmierung, bedeutet die falsche Ausgabe Z den Tod des Badegastes. Der Tod stellt einen (irreversiblen) Eingriff in das Recht auf Leben (Art. 2 Abs. 1 GrCh) dar. Somit besteht ein hohes Risiko für die Rechte der betroffenen Person.

Die Betrachtungsebene der Risikobeurteilung ist die Einzelperson. Somit sind Wahrscheinlichkeitsaussagen, wie z.B. „in 70 % der Fälle erkennt unser Algorithmus einen Ertrinkenden“, für die Risikobeurteilung von untergeordneter Bedeutung. Aus Perspektive des Betroffenen stellt sich die Frage, ob durch den Einsatz des Algorithmus sein Ertrinken schneller oder häufiger erkannt wird als ohne Algorithmus. Wird der Algorithmus als zusätzliche Alarmierung neben der Badeaufsicht eingesetzt, können sich die Chancen erhöhen. Wird er als Ersatz der Badeaufsicht betrieben, sinken die Chancen der rechtzeitigen Alarmierung, wenn der Algorithmus Ertrinkende weniger gut erkennt als eine Badeaufsicht.

Trainierte Algorithmen machen Fehler. Somit ist bei der Risikobewertung zu prüfen, welche Prüfmechanismen der Prozess vorsieht, diese Fehler zu erkennen und zu kompensieren. Zu den Prüfmechanismen können z.B. verpflichtende Nachprüfungen durch Menschen oder Interventionsmöglichkeiten der betroffenen Personen gehören.

Die Fehlerhäufigkeit beeinflusst die Risikobeurteilung. Je mehr Fehler ein Algorithmus macht, die auf die Betroffenen durchschlagen, desto stärker wird in die Rechte und Freiheiten der Betroffenen eingegriffen. Die Korrektur wird ihnen aufgebürdet oder sie erfahren gar nicht, dass sie „falsch“ behandelt worden sind. Bspw. erhält eine Person kein Kreditangebot, da die automatische Klassifikation der Ausgaben auf dem Kontoauszug fälschlicherweise einen zu hohen Anteil an Glücksspielausgaben ausgewiesen hat.

Ist die Fehlerhäufigkeit zu hoch, steht die Geeignetheit des Prozesses in Frage.[14] Prozesse, die nicht geeignet sind, den Zweck zu erreichen, scheitern an der Erforderlichkeitsprüfung des Art. 25 Abs. 2 DS-GVO.

Das anwendende Unternehmen sollte die Software in seinem Prozess ausführlich testen, um die Fehlerarten und -häufigkeiten zu erfahren. Weiterhin ist dabei zu testen, ob Fehlererkennung und -kompensation funktionieren. Herstellerangaben können einen zusätzlichen Beitrag liefern. Sie können die Tests nicht ersetzen, da das Zusammenspiel von Software und Prozess zu beurteilen ist.

Testen meint, dass sich das anwendende Unternehmen für ausreichend viele Fallkonstellationen überlegt, wie das erwartete Verhalten zu einer gegebenen Eingabe aussieht. Das Ziel ist, möglichst viele Eingabekombinationen zu testen. Solche Tests sollten wegen der großen Menge an Testfällen automatisiert werden.

VI. Häufige Veränderungen

Wird der Algorithmus auch während des produktiven Einsatzes trainiert, verändert sich sein Verhalten. Er kann neue Fehler machen oder die Fehlerhäufigkeit verändert sich. Die Veränderungen stellen nicht unbedingt eine Verbesserung dar.[15] Damit ändert sich auch die Güte des Prozesses, folglich auch die Risiken für die Rechte und Freiheiten der betroffenen Personen.

Wenn das Verhalten des Prozesses von dem Verhalten abweicht, dass der datenschutzrechtlichen Prüfung zu Grunde lag, ist die Prüfung – jedenfalls hinsichtlich der Änderungen – erneut zu durchlaufen. Um herauszufinden, ob und wie sich das Verhalten verändert, sind Testungen nach jedem verhaltensändernden Update angeraten.

Es sollte sichergestellt werden, dass das anwendende Unternehmen erfährt, wenn ein Update das Verhalten ändert.

Da solche Testungen und Prüfungen Zeit brauchen, sollte geprüft werden, welche Risiken sich in dieser Zwischenzeit für die Rechte und Freiheiten der betroffenen Personen ergeben. Wenn die Risiken zu hoch sind, spricht einiges dafür, das Verfahren bis zum Abschluss der Tests und Bewertung anzuhalten.

VII. Fazit

Eine datenschutzrechtliche Prüfung von KI-basierten Algorithmen ist mit dem Prüfkatalog der DS-GVO möglich. Da trainierte Algorithmen Wahrscheinlichkeiten anstelle von festen Wenn-Dann-Beziehungen nutzen, fallen beim Anwender erhöhte Testaufwände an. Tests sind ebenfalls erforderlich, wenn personenbezogene Daten zum Training genutzt werden sollen. Aufgrund der im Vergleich zu „normalen“ Algorithmen zusätzlichen Anforderung, das Verhalten der Software zu testen, ist bei KI mit höheren Compliance-Kosten zu rechnen.

Beim Prozessdesign sind Vorkehrungen von Nöten, um die Fehler, die KI machen wird, zu erkennen oder zu kompensieren. Maßstab sind die mit dem Prozess, in dem KI eingebettet ist, induzierten Risiken für die Rechte und Freiheiten der betroffenen Personen.

Dr. Niels Lepperhoff ist Geschäftsführer der Xamit Bewertungsgesellschaft mbH und der DSZ Datenschutz Zertifizierungsgesellschaft mbH.

[1] Handelsblatt (2023): Wenn die KI die Regie übernimmt, 02.10.2023, Nr. 190, S. 20 f.

[2] Heise Online (2023): Bild-Zeitung: KI soll das Layout machen, 20.06.2023. URL: https://www.heise.de/news/KI-Bild-Zeitung-setzt-auf-Kuenstliche-Intelligenz-9192608.html. Letzer Zugriff: 28.07.2023.

[3] Heise Online (2023): „Aromatisches“ Chloramingas, Eintopf aus Menschenfleisch: KI-Rezepte irritieren, 14.08.2023. URL: https://www.heise.de/news/Aromatisches-Chlorgas-Eintopf-aus-Menschenfleisch-KI-irritiert-mit-Rezepten-9242991.html. Letzter Zugriff: 02.10.2023

[4] Heise Online (2023): ChatGPT erfand Präzedenzfälle: US-Anwalt muss Strafe zahlen, 23.06.2023. URL: https://www.heise.de/news/Mit-fiktiven-Faellenvon-ChatGPT-argumentiert-US-Anwalt-muss-Strafe-zahlen-9196497.html. Letzter Zugriff: 28.07.2023.

[5] Heise Online (2023): Australien: Sozialhilfe-Algorithmus führte zu Suiziden und verschärfter Armut, 08.07.2023. URL: https://www.heise.de/news/Australien-Sozialhilfe-Algorithmus-fuehrte-zu-Suiziden-und-verschaerfte-Armut-9210590.html. Letzter Zugriff: 08.07.2023.

[6] Siehe bspw. Schwartmann (2023): Regeln für Textroboter – ChatGPT auf dem Prüfstand des Europarechts, in: RDV, Nr. 2/2023. S. 106 ff

[7] Der Begriff Artificial Intelligence geht auf einen Förderantrag John McCarthys aus dem Jahr 1955 zurück. (Wikipedia (2023): Künstliche Intelligenz. URL: https://de.wikipedia.org/wiki/K%C3%BCnstliche_Intelligenz. Letzter Zugriff: 02.10.2023)

[8] Heise Online (2023): Politische Bildung mit Bing? Laut AlgorithmWatch lieber nicht, 07.10.2023. URL: https://www.heise.de/news/Politische-Bildungmit-Bing-Laut-AlgorithmWatch-lieber-nicht-9327713.html. Letzter Zugriff: 09.10.2023. Ähnliches Verhalten eines anderen Produktes: Heise Online (2023): Amazons Alexa erzählt KI-Quatsch zu den US-Wahlen 2020, 09.10.2023. URL: https://www.heise.de/news/Amazons-Alexa-erzaehlt-KI-Quatsch-zu-denUS-Wahlen-2020-9328357.html. Letzter Zugriff: 10.10.2023.

[9] Heise Online (2020): Wie sich KI-Entscheidungen überprüfen lassen. URL: https://www.heise.de/-4665982. Letzter Zugriff: 28.07.2023

[10] C’t (2023): Google Bard: Leiharbeiter beschweren sich. Nr. 18/2023, S. 47

[11] Ausführliche Erläuterungen zur Risikobeurteilung finden sich hier: EDPB (2017): Guidelines on Data Protection Impact Assessment (DPIA). URL: https://ec.europa.eu/newsroom/article29/items/611236. Letzter Zugriff: 28.07.2023.

[12] Heise Online (2023): Sicherheitsregeln umgangen: Simple Zeichenfolgen entlocken KI-Bots Verbotenes. 29.07.2023, URL: https://www.heise.de/news/Studie-Automatische-Angriffe-hebeln-Sicherheitsregeln-von-ChatGPT-Coaus-9230109.html. Letzter Zugriff: 02.10.2023.

[13] Schwartmann et al. (2022): Praxisleitfaden zum Anonymisieren personenbezogener Daten, URL: https://stiftungdatenschutz.org/fileadmin/Redaktion/Dokumente/Anonymisierung_personenbezogener_Daten/SDS_Studie_Praxisleitfaden-Anonymisieren-Web_01.pdf, S. 53.

[14] Vgl. bspw. The News York Times (2023): Google’s Bard Just Got More Powerful. It’s Still Erratic., 20.09.2023. URL: https://www.nytimes.com/2023/09/20/technology/google-bard-extensions.html. Letzter Zugriff: 10.10.2023.

[15] Telepolis (2023): ChatGPT wird dümmer – trotzdem setzen Unternehmen auf KI. 29.08.2023, URL: https://www.telepolis.de/features/ChatGPT-wird-duemmer-trotzdem-setzen-Unternehmen-auf-KI-9287389.html. Letzter Zugriff: 02.10.2023.