Bericht : Die Gesetze der Robotik verstehen : aus der RDV 2/2023, Seite 130 bis 134
Monish Darda ist ein Pionier der Cloud-Technologie mit 30 Jahren Erfahrung in der Unternehmenssoftwarebranche. Er ist CTO und Mitbegründer von Icertis und war maßgeblich an der Entwicklung der Icertis Contract Intelligence (ICI) Plattform als führende Contract Lifecycle Management Lösung in der Cloud beteiligt. Ein RDV-Interview mit dem Mitglied des RDV-Beirates über Chancen, Risiken und Grenzen des Einsatzes Künstlicher Intelligenz (KI).
RDV: Monish, bitte erläutern Sie den Lesern die Anwendungsfälle einer Contract Lifecycle Management Software.
Monish Darda: Jeder von uns hat irgendwann einmal mit Verträgen zu tun gehabt. In einem Unternehmen steckt hinter jedem Dollar, der das Unternehmen verlässt, ein Vertrag! Software für das Contract Lifecycle Management (CLM) steuert den Prozess der Erstellung, Verhandlung, Ausführung und anschließenden Verwaltung dieses Vertrags, um sicherzustellen, dass die Absicht jeder Geschäftsbeziehung korrekt erfasst und vollständig umgesetzt wird. Bei Icertis gehen wir noch einen Schritt weiter, indem wir Vertragsintelligenz bereitstellen: ein neuer Ansatz für CLM, der KI auf strukturierte Vertragsdaten anwendet, um einzigartige Erkenntnisse zu gewinnen, die eine strategische Entscheidungsfindung ermöglichen. Mit Vertragsintelligenz können Unternehmen ihre Prozesse automatisieren und effizienter gestalten, während sie gleichzeitig ihren Umsatz steigern, Kosten senken, die Einhaltung von Vorschriften sicherstellen und Risiken managen.
RDV: Welche Rolle spielt die KI in einer solchen Software?
Monish Darda: Um die Absicht eines Vertrags zu verwirklichen, muss der Vertrag zunächst vollständig verstanden und das Verständnis korrekt digitalisiert werden. Dies beginnt in der Regel mit der Verhandlung, bei der beide Parteien ein gutes Verständnis der Absicht in natürlicher Sprache (wie Englisch oder Deutsch) haben, aber einen Anwalt (in vielen Fällen ein Team von Anwälten!) benötigen, um dies in ein rechtlich durchsetzbares Konstrukt umzuwandeln. Für die Vertragsverhandlungen werden historische Daten aus dem gesamten Unternehmen (welche Verträge, welche Klauseln wurden zuvor unterzeichnet), Daten zu den Geschäftsergebnissen aus dem gesamten Unternehmen (welche Risiken sind wir in der Vergangenheit eingegangen und wie haben sie sich bewährt, welche Risiken können wir in der Zukunft eingehen, um die gewünschten Ergebnisse zu erzielen, wie haben die Lieferanten abgeschnitten, wenn ein Vertrag auf eine bestimmte Art und Weise ausgehandelt wurde) und die Organisationen, die Vertragsparteien sind, benötigt.
Sobald ein Vertrag ausgehandelt wurde, müssen die Transaktionen überwacht werden, um sicherzustellen, dass sie der Absicht des Vertrages entsprechen. In der Praxis bedeutet dies, dass sichergestellt werden muss, dass die richtigen Preisnachlässe gewährt, die richtigen Vertragsstrafen eingezogen, der Vertrag rechtzeitig verlängert und korrekt geändert wurde usw. Unternehmen, die Tausende, wenn nicht gar Millionen von Verträgen verwalten, verfügen über eine Fülle von Daten, die genutzt werden können, um tiefe Einblicke in die Funktionsweise des Unternehmens zu erhalten und bessere Entscheidungen zu treffen. So können Führungskräfte beispielsweise anhand von Vertragsdaten feststellen, ob sie sich auf die richtige Region, den richtigen Produktmix, die richtigen Lieferanten, Kunden, Zahlungsbedingungen und Gerichtsbarkeiten konzentrieren – die Liste ist endlos. KI spielt bei diesen Aspekten während des gesamten Vertragslebenszyklus eine wesentliche Rolle und ist besonders nützlich, um Geschäftsentscheidungen zu verbessern, indem analysiert wird, was in der Vergangenheit passiert ist, und vorhergesagt wird, was in Zukunft passieren könnte.
KI ist seit vielen Jahren tief in die Icertis-Lösung eingebettet, und wir arbeiten kontinuierlich an einer KI-Roadmap, die unseren reichhaltigen Datenspeicher mit 2 Milliarden Metadatenelementen aus mehr als 10 Millionen Verträgen nutzt, um einen exponentiellen Mehrwert für unsere Kunden zu schaffen. Im Vertragsmanagement werden Innovationen wie generative KI weit über die bloße Erstellung neuer Verträge hinausgehen und einen viel größeren Einfluss auf die Phasen der Vertragsanalyse, -validierung und -umsetzung haben, was wir aktiv erforschen.
RDV: Welche sozialen, kulturellen oder wirtschaftlichen Chancen verbinden Sie mit KI? Was sind die Risiken?
Monish Darda: KI hat Parallelen in der Vergangenheit: Der Buchdruck veränderte das soziale, kulturelle und wirtschaftliche Gefüge der Welt, ebenso wie das Fernsehen, das Handy und das Internet. In der gleichen Weise, wie diese Technologien Daten demokratisiert haben, hat KI nun das Potenzial, aus Daten Wissen zu generieren, und manche würden behaupten, aus diesem Wissen sogar Vorhersagen über die Zukunft zu machen. KI bietet dieselben Möglichkeiten, die Welt zu verändern, wie der Buchdruck, aber die Möglichkeiten sind jetzt viel größer! Mit dem Internet kann jeder nach stundenoder tagelangen Recherchen den richtigen Lieferanten für die Herstellung von Regenmänteln zu einem wettbewerbsfähigen Preis finden. Mit der KI ist diese Information nicht nur in Sekundenschnelle für jeden verfügbar, der die richtige Frage stellen kann, sondern sie hat auch das Potenzial, die Transaktion automatisch ablaufen zu lassen.
Diese Art von Macht vervielfacht auch die Risiken. Bei anderen Technologien setzen Menschen Daten oder Wissen in Handlungen um. Wenn die KI diese Aufgabe übernimmt, sind die Risiken weitaus größer. Da beispielsweise alle Formen der KI heute ausschließlich auf Daten aus der Vergangenheit aufbauen, werden Aktionen auch auf der Grundlage dieser Daten „verallgemeinert“. Es gibt keinen Filter, um festzustellen, welche Daten für einen bestimmten Fall relevant sind, so dass die Gefahr besteht, dass die „Individualität“ verloren geht. Obwohl es viele andere Risiken gibt (ethische, soziale, rechtliche und sogar existenzielle), glaube ich, dass dies die größte potenzielle Bedrohung ist, die weitere Risiken nach sich zieht. Und natürlich bleibt das Risiko bestehen, dass wir als Gesellschaft diese Technologie unverantwortlich einsetzen, was den Bedarf an neuen gesetzlichen Regelungen im Zuge der weiteren Entwicklung der KI erhöht.
RDV: Sind die Datenschutzgesetze in Europa aus Ihrer Sicht flexibel genug oder behindern sie digitale Entwicklungen wie die KI?
Monish Darda: Obwohl ich kein Experte für die Gesetze selbst bin, habe ich die Datenschutzgesetze in Europa immer als weitgehend logisch und mit großem Respekt für den Einzelnen wahrgenommen, aber als schwierig in der Praxis umzusetzen. Ich glaube nicht, dass sie digitale Entwicklungen wie KI behindern, vor allem weil sie als Filter für die Verantwortung dienen. Mit dem richtigen Rahmen wird die Anwendung digitaler Technologie verantwortungsvoller, überlegter und sorgfältiger. Meiner Meinung nach ist das auf lange Sicht gut so, und deshalb sieht man, dass der Rest der Welt die europäischen Gesetze als Vorbild für die eigenen nutzt.
RDV: Wie könnten innovative digitale Dienste oder Produkte entwickelt werden, die gleichzeitig den Schutz personenbezogener Daten gewährleisten? Haben Sie Ideen, wie dies umgesetzt werden könnte?
Monish Darda: Das Konzept der „persönlich identifizierbaren Informationen“ oder „PII“ ist eines der wichtigsten Konzepte zum Schutz personenbezogener Daten. Bei den meisten digitalen Diensten oder Produkten, die KI einsetzen, müssen die für das Training [des Algorithmus] benötigten Daten nicht „persönlich identifizierbar“ sein, d.h. sie müssen nicht zu der Person zurückverfolgt werden können, die diese Daten erstellt hat oder deren „Eigentümer“ sie sind. Wenn ChatGPT zum Beispiel einen Aufsatz zum Thema „Datenschutz in Europa“ schreiben muss, muss es nicht wissen, dass Dr. Schwartmann seine Doktorarbeit am 21. März geschrieben hat. Der Text der Doktorarbeit, der öffentlich zugänglich ist, kann als Input für das KI-Training dienen, aber es muss nicht zurückverfolgt werden, um den Autor individuell zu identifizieren.
Dieses Beispiel ist zwar konstruiert, zeigt aber, wie Daten synthetisiert werden können, ohne die Privatsphäre des Einzelnen zu gefährden. Wenn Sie an Anwendungen in der Medizin (z.B. die Erkennung von Krebs in einem Leberscan) oder im Rechtswesen (die Identifizierung spezifischer Rechtsprechung, die in einem bestimmten Fall hilfreich sein könnte) und in anderen Branchen denken, werden Sie sehen, dass diese Anwendungen immer noch umgesetzt werden können, ohne die Privatsphäre des Einzelnen zu verletzen. Es wird immer Ausnahmen geben, insbesondere dann, wenn es wichtig ist, dass die Daten mit dem Individuum in Verbindung gebracht werden, oder wenn das Individuum seine Daten teilen möchte, und diese müssen anders angegangen werden. Ich vermute, dass die Fähigkeit der KI, bestimmte Teile der für ihr Training verwendeten Daten zu „verlernen“, ein wichtiges Thema künftiger Forschung sein wird, wenn sich diese Technologie und ihre Regulierung weiterentwickeln.
RDV: Die Europäische Kommission arbeitet derzeit an einer Verordnung für KI. Was würden Sie sich von den EU-Gesetzgebern wünschen?
Monish Darda: Ich denke, Isaac Asimovs drei Gesetze der Robotik (und insbesondere das nullte Gesetz, das nicht so bekannt ist) sind eine faszinierende Lektüre! Es wäre großartig, wenn sich die Regulierung nicht auf die Anwendung von KI konzentrieren würde, sondern darauf, welche Handlungen von der KI ausgeführt werden können. Dieser Ansatz spiegelt Asimovs Gesetze der Robotik wider, bei denen der Schwerpunkt auf der Regelung der Handlungen und nicht auf dem Einsatz von Robotern liegt. Die Fokussierung auf Handlungen kann dazu beitragen, eine gerechte, verantwortungsvolle und ethisch starke Grundlage für Regierungen und Unternehmen gleichermaßen zu schaffen, um eine Technologie zu übernehmen, die das Potenzial hat, die Zukunft der Menschheit zu verändern.
Die Asimov’schen Gesetze lauten:
- Ein Roboter darf kein menschliches Wesen (wissentlich*) verletzen oder durch Untätigkeit (wissentlich*) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
- Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
- Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Man beachte, dass die Gesetze hierarchisch aufgebaut sind. Sie bilden den Hintergrund der in „Ich, der Robot (1950)“ gesammelten Science-Fiction-Erzählungen und prägen seither die Auffassung, was und wie ein Roboter sein sollte. Die von Asimov beschriebenen Roboter sind in ihrem Verhalten und ihren Entscheidungen an diese Gesetze gebunden.
*Isaac Asimov: The Naked Sun. Doubleday, New York Januar 1975. (engl.). Quelle: Wikipedia
RDV: Wenn Sie KI-Systeme klassifizieren müssten: Haben Sie Beispiele für 1. Systeme mit geringem Risiko, die ethisch vertretbar sind (grün), 2. Systeme, die nützlich, aber kritisch und unter Risikoregulierung zulässig sind (gelb), und 3. Systeme, die ein hohes Risiko darstellen und daher verboten werden sollten (rot)?
Monish Darda: Auch wenn es sich um eine vereinfachte Interpretation handelt, glaube ich, dass die folgende Tabelle einen Rahmen für die Bewertung und Steuerung solcher Systeme bieten kann. Die Welt kann natürlich nicht in Rot, Grün und Gelb eingeteilt werden – Grau ist im wirklichen Leben die vorherrschende Farbe. Aber wenn wir mehr als 70 % der Systeme mit einem solchen Rahmen bewältigen können, hat er das Potenzial, gut genug zu sein. Und wir werden im Laufe der Zeit lernen, mit den Grautönen umzugehen – so wie wir es mit der Kernkraft getan haben. Ich nenne dies die Tabelle für verantwortungsvolle KI.
RDV: ChatGPT ist eine „Allzweck-KI“. Sie erzählt harmlose Witze und kennt Kochrezepte, aber sie rät auch zum Selbstmord, wenn nötig, und gibt politische Einschätzungen ab. Müssen wir sie speziell als „Hochrisikotechnologie“ regulieren und wo sollte ChatGPT in der Tabelle eingeordnet werden?
Monish Darda: Ein Löffel ist nicht harmlos, wenn er benutzt wird, um jemanden zu verletzen, anstatt Suppe zu essen. Das bedeutet nicht, dass es ein Gesetz geben sollte, das die Verwendung eines Löffels regelt. Aber ein Gesetz, das die Verwendung von allem, einschließlich eines Löffels als Waffe, um jemanden zu verletzen, ausschließt, ist definitiv erforderlich. Ich denke, die Technologie selbst, insbesondere ChatGPT, ist nicht das Problem, sondern die Art und Weise, wie sie eingesetzt wird! Ja nachdem, wie man den Bot fragt, kann es passieren dass er Selbstmord rät. Man kann ihn dazu bringen, fast alles zu sagen, weil es immer auf den Kontext ankommt und dessen Einzelheiten ankommt. In diesem engen Sinne hat der Bot also den Spielraum, den ein Autor eines besonders verstörenden Buches hat – es ist die Entscheidung des Lesers, es zu lesen oder nach der Lektüre davon betroffen zu sein. Was wir natürlich regeln müssen, ist die Art und Weise, wie sie verwendet wird, und die Maßnahmen, die aufgrund ihrer Verwendung in einem bestimmten Kontext ergriffen werden können.
RDV: Die Pflicht und das Recht des Menschen, eigene Entscheidungen zu treffen, gilt nach der DS-GVO auch für wirtschaftlich relevante Entscheidungen, die Rechte berühren, zum Beispiel bei der Auswahl von Bewerbern im Arbeitsrecht. Die KI-Verordnung sieht diese Pflicht auch für robotergestützte Entscheidungen vor. Ist das ein Ansatz mit Zukunft?
Monish Darda: Ich denke, in naher Zukunft wird diese des Menschseins natürlich so bleiben, wie sie seit Jahrhunderten gilt. Hier kann die Tabelle, die ich oben vorgeschlagen habe, nützlich sein.
RDV: Wir möchten noch einmal auf Asimov zurückkommen. Die Robotergesetze berücksichtigen – wenn wir es richtig sehen – nicht, dass Maschinen ihre Entscheidungen nicht abwägen dürfen. Dies ist allgemein als das sog. „Trolley-Problem“ bekannt. Wenn wir ihn richtig verstehen, war Asimov darüber sehr besorgt, und er hatte auch keine Lösung dafür. Selbst wenn Computer so programmiert wären, dass sie fair, verhältnismäßig, einfühlsam oder kreativ „entscheiden“ und ihre Entscheidungen auch nach menschlichen Maßstäben bewerten, bliebe das Problem bestehen.
Monish Darda: Er hat eine interessante Lösung, auch wenn sie natürlich nicht wirklich das Problem vollständig abdeckt. Das nullte Gesetz der Robotik besagt, dass ein Roboter der Menschheit keinen Schaden zufügen oder durch Untätigkeit einen solchen zulassen darf.“. Dies ist die Grundlage für die Möglichkeit, einige Menschen für das „größere Wohl der Menschheit“ zu opfern. Tatsächlich muss Giskard, einer der Roboter in Asimovs Robotergeschichten, einen Menschen für die Menschheit töten und beendet sich dann selbst, weil er mit den Folgen der Verletzung des ersten Gesetzes nicht leben kann. Das ist die Grundlage des Trolley-Problems, mit allen Nuancen seiner Variationen.
RDV: Aber die Maschinen bleiben Maschinen. Man könnte die Parameter der menschlichen Entscheidung bestimmen und programmieren, aber das würde nichts an der Tatsache ändern, dass es sich um eine simulierte Menschheit handeln würde. Die simulierten Gedanken – wenn sie frei von Verzerrungen und Rauschen sind – sind oft besser als die menschliche Intuition. Das (rechtliche) Problem ist jedoch die „künstliche DNA“ der maschinellen Entscheidung. Sie kann keine rechtlich akzeptable Abwägungsentscheidung treffen. Der Mensch muss sie in eigener Verantwortung treffen und – wenn man seine Verantwortung ernst nimmt – auch tun.
Monish Darda: Stimme zu! Das Problem ist, wie wir Menschlichkeit definieren. Wenn wir argumentieren, dass Roboter menschliche Schöpfungen sind und daher nicht menschlich, dann gilt das für die Geburt eines Kindes, die Weitergabe von natürlichem Wissen an dieses und seine Erziehung, damit es Entscheidungen treffen kann, die gut oder schlecht sein können. Das ist es, was wir mit der KI tun – wir statten sie mit der Summe des menschlichen Wissens aus und erziehen sie dazu, Entscheidungen zu treffen, die gut oder schlecht sein können. Das ist menschlich, oder zumindest wird es menschlich sein, wenn es ausgereift genug ist.
Wenn wir die menschliche Intuition betrachten, kann man sie grob mit der „Temperatur“-Einstellung von ChatGPT vergleichen. Je höher die Temperatur, desto mehr ignoriert ChatGPT die beste Antwort, die auf seinem Training basiert. Anstatt also die beste Antwort zu wählen, wird ein ausreichendes Maß an Zufälligkeit eingeführt, das es ermöglicht, gelegentlich eine „weniger als ideale“ Antwort zu wählen, mit anderen Worten, eine kreativere Antwort. Auf diese Weise kann man die Kreativität des ChatGPT-Ergebnisses – das wohl (wenn auch viel, viel raffinierter) der menschlichen Intuition entspricht – anpassen. Asimov beschreibt eine Figur namens Golan Trevize, einen der wenigen Menschen in der Galaxie, der instinktiv die richtige Entscheidung treffen kann, selbst wenn nicht genügend Daten für die Entscheidung vorliegen und er nicht weiß, warum! Das beschreibt doch die KI, oder nicht?
RDV: Aber dann würde sich der Unterschied zwischen Mensch und Maschine im Ergebnis auflösen. Das ist ein Problem, wenn man die fehlende Kontrolle des unterlegenen Menschen bedenkt. Da die perfekte Entscheidung einer Maschine (nehmen wir das Beispiel des Strategiespiels „Go“) für den Menschen nicht mehr überprüfbar ist, kann sie – in rechtlich relevanten Zusammenhängen – nur unterstützend wirken. Wenn der Mensch die maschinelle Entscheidung nicht mehr nachvollziehen kann, ist sie rechtlich nicht verwertbar, jedenfalls nicht, wenn es um staatliche Eingriffe in die Rechte Dritter geht. Das Problem ist rechtlich nicht zu lösen, solange man in der Tradition der Menschenwürde von Immanuel Kant steht. Sie ist grundlegend für die europäische Verfassungstradition und Rechtsprechung, insbesondere in Deutschland, aber auch beim EuGH.
Monish Darda: Deshalb entwickeln sich Gesetze weiter. Als die ersten Autos auf den Straßen unterwegs waren, hatten Pferdekutschen Vorfahrt vor Autos, aber das hat sich schnell geändert! Ich würde behaupten, dass Immanuel Kants Tradition der Menschenwürde schließlich auch für Maschinen gelten wird, da sich die Definition von „Mensch“ schließlich ändern wird.
RDV: Was würden Sie, unter Berücksichtigung von Asimov, zu folgender Idee sagen? Der Mensch trägt Verantwortung, der Roboter nicht. Der Mensch ist frei, das Richtige zu tun, auch wenn es nach der Regel das Falsche ist. Die Maschine ist es nicht. Menschen sind für die Folgen ihrer Entscheidungen und Handlungen verantwortlich, und auch für die Folgen der Entscheidungen und Handlungen von Robotern. Es kann also keine verantwortungsvolle Roboterentscheidung geben, die der Mensch nicht bewusst und eigenverantwortlich getroffen hat. Verdeutlichen wir dies an einem Beispiel von Clint Eastwood: In dem Film „American Sniper“ sieht ein Scharfschütze im Krieg ein Kind, das sich einer Gruppe von Soldaten nähert. Es bleibt ein Rest von Unsicherheit, ob es eine Granate bei sich hat. Der Scharfschütze bittet um den Befehl, das Kind zu erschießen. Der vorgesetzte Offizier kann die Gefahr nicht bestätigen und verweist auf die Regeln für den Todesschuss mit den Worten: „Ihre Entscheidung“. Der Scharfschütze erschießt das Kind, bevor es die Granate auf die Soldaten werfen kann, und rettet ihnen so das Leben. Er befolgt die Regel und wählt trotz der Ungewissheit einen Ausweg aus dem Dilemma des Tötens und tötet das Kind. Das war falsch, denn man tötet keine Zivilisten, wenn man nicht sicher ist, dass sie angreifen werden. Wenn man dem Film folgt, war die Entscheidung trotzdem richtig. Keine KI kann eine solche Entscheidung treffen und dafür verantwortlich sein. Das ist auch nicht die Aufgabe der Technik. Ihre Aufgabe ist es, Regeln anzuwenden, die der Mensch ihr durch Programmierung vorgibt, und zwar auf der Grundlage einer transparenten und funktionierenden Programmierung sowie einer zuverlässigen Datenbasis. Auf dieser Grundlage kann der Computer Lösungen für Probleme anbieten. Der Mensch als Gegenspieler der Maschine muss verstehen können, was die Maschine ihm vorschlägt. Das macht eine Entscheidung wahrscheinlich nicht leichter, aber reflektierter. Unveränderlich bleibt dabei, dass der Mensch in der Lage sein muss, eigenverantwortlich auch gegen die Regel zu entscheiden. Das kann die Maschine nicht leisten. Aber die nüchtern dienende Maschine kann eine Lösung anbieten, die den Menschen zum Nachdenken bringt. Deshalb brauchen wir sie, denn die menschliche Intuition ist eine Quelle von Verzerrungen und Rauschen, die Maschinen erkennen und bekämpfen können. Der Mensch kann sich nicht von der Freiheit befreien, das (vermeintlich) Falsche zu tun, aus welchen Gründen auch immer, und muss die Verantwortung dafür übernehmen. In „American Sniper“ bricht der Scharfschütze an seiner Verantwortung und seinem Leid über das Töten zusammen. Dieses Problem lässt sich aus dem militärischen Bereich herausnehmen und auf jede Notsituation anwenden, in der man Menschen verletzen muss, um andere Menschen zu retten.
Monish Darda: Das Beispiel des Scharfschützen ist dem Zusammenbruch von Giskard in der Asimov-Geschichte sehr ähnlich, denn er kann nicht mit seiner Entscheidung leben, sondern muss diese Entscheidung treffen. Ein Hauptargument gegen die Übertragung von Verantwortung an Maschinen ist, dass „sie nicht bestraft werden können“, weil sie keinen Schmerz, kein Bedauern, keine Dankbarkeit oder andere Gefühle empfinden können. Das stimmt zwar heute, aber bei der Geschwindigkeit, mit der die Technologie voranschreitet, müssen wir bedenken, dass der Mensch irgendwann in der Lage sein wird, den Maschinen Emotionen und ein „Herz“ einzuhauchen – vielleicht indem er die KI mit einem echten menschlichen Gehirn (oder Gehirnen) ausstattet. Die alternative Metapher ist Murphy in Robocop – mehr Roboter als Mensch, oder mehr Mensch als Roboter? Er wird als Eigentum von OCP, seinem Hersteller, betrachtet, hat aber eine Fülle von Emotionen.
RDV: RDV-Mitherausgeber Rolf Schwartmann schrieb kürzlich in der F.A.Z. über ChatGPT: „Ein neuronales Netz ist darauf programmiert, menschliche Entscheidungen nach seinen Bedürfnissen zu optimieren. Aber die Technik kann und darf nur dem Menschen dienen. Der Mensch kennt Zweifel und Demut und muss entscheiden, was für die Menschheit besser ist.“ Stimmen Sie dem zu, und wenn ja, wie kann die Menschheit die Kontrolle behalten?
Monish Darda: Ich bin nicht ganz einverstanden. Ich denke, es ist ein wenig eingebildet (auf eine gute Art und Weise), zu glauben, dass der Mensch Zweifel und Demut kennt und die Technologie dies niemals tun wird. Selbst wenn das stimmt, ist der Entscheidungsprozess in „muss entscheiden, was besser für die Menschheit ist“ sehr komplex und landet in der Regel in den Händen einiger weniger oder wird von einigen wenigen beeinflusst, und ist nicht unbedingt demokratisch. Und wenn dieser Prozess fehlerhaft ist (wie es fast immer der Fall ist – siehe, wie Kriege entstehen, oder sogar Dinge wie der Brexit), bricht der gesamte Entscheidungsprozess zusammen. Lassen Sie mich ein paralleles Beispiel anführen – ein Mobiltelefon ist heute ein fester Bestandteil unseres Lebens. Man könnte argumentieren, dass es eine solche Sucht ist, dass dieses Stück Technologie Teil unseres Lebens ist. Man könnte weiter argumentieren, dass die Beziehung symbiotisch ist – das Mobiltelefon und seine Dienste werden „intelligenter“, indem sie unser Verhalten vorhersagen, je mehr wir es benutzen, und so unser Leben verbessern. Und die Mobilfunktechnologie, ihre Nutzung, Anwendungen und Daten werden weltweit durch Vorschriften geregelt. Wenn man diese Analogie ausweitet, ist es möglich, dass eine Welt entsteht, in der KI und die Menschheit in einer symbiotischen Beziehung leben, die durch einen unantastbaren Vertrag geregelt wird, ähnlich wie die 3 Gesetze der Robotik! In der Welt dreht sich letztlich alles um Verträge und darum, wie ihre Absicht vollständig umgesetzt wird.
RDV: Monish, wir danken Ihnen für das Gespräch.
Das Gespräch führten RA Andreas Jaspers, Prof. Dr. Rolf Schwartmann und Steffen Weiß