DA+

Editorial : KI-generierte Grenzen der Erkenntnis : aus der RDV 3/2024, Seite 131

Moritz KöhlerArchiv RDV
Lesezeit 2 Min.

Bereits 1921 beschrieb der österreichische Philosoph Ludwig Wittgenstein die begrenzende Wirkung der Sprache: „Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt.“ Etwas mehr als ein Jahrhundert später kam ChatGPT auf den Markt und offenbarte, dass nicht nur unsere eigene Sprachgrenze unsere Welt einschränkt. Auch die Grenzen der Sprache unserer KI-Systeme können unsere Gedankenwelt limitieren.

Die Grenzen digitaler Verständniswelt hat der Autor dieses Editorials am eigenen Leib erfahren. Bei der Arbeit an einem wissenschaftlichen Text suchte er eine treffende Definition für „algorithmische Systeme“. Die Durchsicht der Fachliteratur führte zu der Erkenntnis, dass die gängigen Definitionsansätze für die Zwecke seiner Arbeit unpassend sind. Sie legen den Fokus zu stark auf den Einsatz der Systeme zur „Entscheidungsfindung“, obwohl moderne algorithmische Systeme weitaus mehr leisten können. Auf Basis dieser Erkenntnis entwickelte der Autor also eine eigene Definition. Bei der Überarbeitung des Textes einige Tage später kam die Idee auf, ein KI-Sprachsystem nach einer Definition zu fragen, um die vorherigen Erkenntnisse zu überprüfen. Das KISystem lieferte einen zunächst überzeugenden Ansatz. Dabei fiel nicht auf, dass die KI den bewusst ausgelassenen Entscheidungsbegriff mit der ihr eigenen eloquenten Leichtigkeit wieder eingefügt hatte.

Dem System kann kein Vorwurf gemacht werden: In der Datenbasis ist der Begriff des algorithmischen Systems fest mit dem Begriff der Entscheidung verknüpft, so verlangt es die statistische Auswertung der herkömmlichen Definitionen. Eine Verknüpfung in der angeforderten Definition war daher nur wahrscheinlich; ein Ergebnis narrativer Notwendigkeit, wie es die KI-Forscher Léon Bottou und Bernhard Schölkopf treffend ausdrücken. Trotzdem unterstreicht das Beispiel die Schwäche generativer KI: Sie kann den kreativen Fortschritt zunichte machen, der Kern einer wissenschaftlichen Publikation ist. Zugleich folgte der Autor der Technologie, wie ein naiver Autofahrer, der seinem Navigationsgerät gehorcht, bis er im nächsten See landet.

Diese besonderen Risiken generativer KI-Systeme sind nicht allen bewusst. So hat das ArbG Hamburg kürzlich einen interessanten Vergleich gezogen: ChatGPT sei lediglich eine weitere Webseite, bei welcher Beschäftigte einen Account anlegen. Diese Äußerung nimmt Dr. Markus Wünschelbaum zum Anlass, die Rechtsauffassung des ArbG zum Mitbestimmungsrecht des Betriebsrats bei Vorgaben zur Nutzung generativer KI-Systeme kritisch zu beleuchten. Im abschließenden Bericht aus Brüssel geht der Abgeordnete des Europäischen Parlaments Axel Voss der Frage nach, wie das erklärte Ziel der KI-VO, KI-bedingte Risiken zu mindern, mit der europäischen Wettbewerbsfähigkeit in Einklang gebracht werden kann.

Moritz Köhler

ist Wissenschaftlicher Mitarbeiter der Kölner Forschungsstelle für Medienrecht an der TH Köln und Doktorand bei Prof. Dr. Rolf Schwartmann.