Inhalte: Große Sprachmodelle

Ist Chat GPT intelligent? Geht Technik vor Ethik?

‘Ist ChatGPT intelligent’ und  ‘Geht Technik vor Ethik’? Grundlegende Fragen, die zu wenig gestellt werden. Große KI-Sprachmodelle wie ChatGPT,  vor wenigen Monaten nur Insidern bekannt,  gehören jetzt zum Alltag. Sie schreiben Texte und Programme, Privatbriefe, Hausarbeiten für Schüler und Studenten und inzwischen sind auch akustische und bildliche Eingaben möglich. Parallel zu den immer größer werdenden Möglichkeiten steigt ein allgemeines Unbehagen, auch treten mögliche Bedrohungen in unser Bewusstsein. Die Angst vor Sicherheitsrisiken und vielfältigem Missbrauchspotenzial ist überall präsent. Die Technik galoppiert, die Beschäftigung mit ihren Risiken versucht Schritt zu halten. Wir wissen kaum etwas und benutzen blind. Mit einer am 20. März 2023 veröffentlichten Stellungnahme hat der Deutsche Ethikrat etwas Licht auf “Mensch und Maschine” geworfen.

Was ist denn so neu an dieser KI?

Wir haben uns längst daran gewöhnt, dass mit Hilfe von Künstlicher Intelligenz große Datenmengen verarbeitet werden können und dass das auf allen Gebieten, auch in der Medizin, sehr hilfreich ist. Jetzt aber treten Systeme auf, die als “smart” bezeichnet werden, die uns nicht nur den Eindruck selbständiger Entscheidungen erwecken, sondern uns  ganz persönlich und sogar emotional  anzusprechen scheinen. Spätestens an dieser Stelle kommt es zu einer neuen gefühlten Bedrohung: gab es bisher nur Bedenken wegen missbräuchlicher Anwendung, beispielsweise von Schadsoftware, phishing mails und Sicherheitsbedrohungen, geht es jetzt um Ängste, die uns in unserer Existenz betreffen, eine Bedrohung durch ein Etwas, welches uns gleichwertig oder überlegen wäre und uns ersetzen würde.

Gesetzgebung für KI?

Weltweit gibt es Bestrebungen, Gefahren einzuhegen, die klar definierbare Gebiete betreffen. So stellen sich Probleme von Haftung, wenn KI immer unabhängiger von Menschen agieren würde. Wer wäre anzuklagen und müsste Entschädigungen bezahlen?  Praktische Fragen. die zu regeln sind, aber immer zurückweisen auf die Grundsatzfragen: sprechen wir von tools, von Maschinen, wenn wir KI meinen?  Oder kann ein technisches System wie KI eine eigene Rechtspersönlichkeit haben? Hilft oder schadet uns KI mehr?  Beides! Sie hilft: wir können Arbeiten delegieren. Sie schadet: sie stellt unsere Urheberschaft infrage. Eine Gesetzgebung der Handhabung zu finden ist nachvollziehbar ungeheuer schwierig. Mit diesen Fragen setzen sich Techniker und Juristen auseinander; es geht aber um weit mehr. Zunächst fällt auf, dass wir im Zusammenhang mit KI Begriffe benutzen, die wir dringend genauer definieren müssten.

Was ist Intelligenz?

Unser Begriff KI erweckt den Eindruck, es handele sich um unsere Intelligenz, die aber künstlich hergestellt sei. Ist das so? Zur menschlichen Intelligenz gehören – selbst wenn man die sogenannte emotionale Intelligenz weglässt – verschiedenste Faktoren, die nicht nur die Fähigkeit zu logischen Schlüssen umfassen, beispielsweise räumliches Vorstellungsvermögen und assoziatives Gedächtnis. Rationales Denken und entsprechendes Schlussfolgern gehören ebenso dazu wie danach ein zielgerichtetes Handeln; unser Verstehen von menschlicher Intelligenz umfasst theoretische und praktische Vernunft. Diese kann nicht von unserem Leib abgekoppelt werden (vereinfacht: ein isoliertes menschliches Gehirn in einer Nährflüssigkeit kann nicht denken und handeln. ICH bin nicht in einem isolierten Gehirn.)  So kommt der Deutsche Ethikrat in seiner Stellungnahme zu dem Schluss, dass es gravierende Unterschiede gibt: auch wenn sich in der Arbeitsweise von KI Parallelen zur theoretischen Vernunft aufzeigen lassen, verfügen “…die bislang verfügbaren KI- Systeme nicht über die dafür relevanten Fähigkeiten des Sinnverstehens, der Intentionalität und der Referenz auf eine außersprachliche Wirklichkeit”. In leichter Sprache: KI – Systeme können nicht denken und verstehen.

Ist ChatGPT intelligent – ohne Vernunft? Handlung? Absicht?

Noch mehr gilt das für die praktische  Vernunft, die mit einem weiteren Begriff verbunden ist: dem der Handlung. Handlung ist nicht alles, was wir tun, sondern nur ein Tun, welches zweckgerichtet, beabsichtigt und kontrolliert ist. Wenn also eine Maschine nicht die Absicht hat, etwas zu tun, können wir ihr nicht zuschreiben, dass sie handelt. Zum Begriff der Absicht gehört unsere Vorstellung von einer Person, die handelt und dann auch moralisch und rechtlich dafür verantwortlich ist. Handlungsurheberschaft ist die Grundlage für das, was wir als Autonomie bezeichnen. Wir Menschen können uns selbst Gesetze geben und unsere Handlungen danach ausrichten. Wenn also technische Systeme jeder Art absichtlich und verantwortungsfähig handeln könnten, müssten wir sie folgerichtig als Person betrachten.

Anthropomorphisierung vermeiden

Je mehr uns klar wird, dass es sich bei KI nicht um eine menschliche Intelligenz handelt, sondern um etwas gänzlich Anderes, umso mehr sollten wir zu dem Schluss kommen, dass wir sprachlich die Vermenschlichung der technischen Systeme vermeiden und neue Begriffe suchen sollten. Dass in den heute stattfindenden öffentlichen Diskursen KI nicht von menschlicher Intelligenz unterschieden wird, hat Folgen. Wenn wir sagen, dass technische  Systeme lernen, denken und entscheiden, sprechen wir von etwas, was Philosophie und Psychologie jahrhundertelang  durchdacht haben und was für uns  zu einem Begriff mit automatischen Vorannahmen und Assoziationen wurde. Wir müssen uns klarer darüber werden, dass unsere Begriffe bei KI gar nicht mehr zutreffen und daraus Schlüsse ziehen. Wenn nicht mehr zu jedem Zeitpunkt  ganz deutlich wird, dass der Begriff Intelligenz in Bezug auf technische Systeme nur metaphorisch ist, müssen wir neue Begriffe finden, sonst täuschen wir uns dauerhaft selbst. KI ist keine menschliche Superintelligenz, sie ist eine andere Intelligenz.

Gefahr durch Automation Bias

Hier genau ist nämlich der Punkt, wo die Nutzung schon der bisherigen KI-Systeme gefährlich sein könnte: als Automation Bias wird die ungeprüfte Übernahme algorithmisch vorgeschlagener Ergebnisse bezeichnet; diese entsteht dadurch, dass wir den algorithmisch erzeugten Ergebnissen mehr vertrauen als unseren (auf begrenzteren Daten beruhenden) Erkenntnissen. Praktisches Beispiel aus der Medizin: wenn wir durch KI erstellte Wahrscheinlichkeitsdiagnosen bei Hautkrebs einfach übernehmen. Solange wir davon ausgehen, dass KI unserer Intelligenz entspricht, freuen wir uns unter Umständen immer mehr nicht nur an schnell bereit gestellten Daten, sondern übernehmen ‘Entscheidungen‘, da wir unbewusst diesen künstlichen Akteuren auch Vernunft und Verantwortung zuschreiben. Es liegt an uns selbst, KI -Systeme weiterhin strikt als Entscheidungsunterstützer, nicht aber als Entscheider zu sehen. Sonst höhlen wir selbst unser eigenes System von Urheberschaft, Autorschaft und Verantwortlichkeit aus, ganz unabhängig von rechtlichen Gegebenheiten.

Wird “Starke KI” Wirklichkeit?

Dabei gelten all diese Überlegungen schon für die KI von heute; technisch sowie philosophisch ist man weiter darüber uneins, ob die sogenannte Starke oder Generelle Künstliche Intelligenz wirklich realisiert werden kann. Der Historiker Yuval Noah Harari sagte kürzlich in einem Vortrag, man solle den Begriff Artificial Intelligence durch Alien Intelligence ersetzen, da artificial (= künstlich)  ja meine, dass etwas durch uns erschaffen wurde, was aber nicht mehr gelte. Das trifft für die jetzige Situation wohl (noch?) nicht ganz zu, fest steht aber, dass unsere früher klare Grenzlinie zwischen Mensch und Technik immer mehr verschwimmt.  KI  ist anders  ‘intelligent’.

ChatGPT als Moralische Maschine?

Oliver Bendel bezeichnet ChatGPT erstmalig als moral machine im Sinne der Maschinenethik. Das heisst nicht, ein technisches System bilde sich ein eigenes Urteil darüber, was moralisch richtig oder falsch ist;  es reproduziert nur menschliche Urteile. Wie KI  ist maschinelle Moral nur ein terminus technicus, ein Begriff. Gemeint ist ein System, welches nicht selbst gut  oder böse istsondern menschliche Moral simuliert, indem es moralische Regeln befolgt. Das technische System ist nicht neutral.  Es lernt auf Basis vorhandener Daten, bei ChatGPT von Sprache, die Menschen geschaffen haben, und damit kann es Stereotypen benutzen und Ungerechtigkeiten verewigen. Grundlegende ethische Fragen werden hier an vielen Stellen berührt, beispielhaft hier zwei:

  • im  Vorfeld, wo das System mit menschlichen Moralen trainiert wird. GPT heißt Generative Pre-trained Transformer; am Anfang steht also Training durch Menschen. Sozusagen in Handarbeit wurden dabei Inhalte gesichtet, um unerwünschte auszusortieren. Es ist bekannt, dass diese psychisch ungeheuer belastende Tätigkeit (die beispielsweise ständige Konfrontation mit Gewaltdarstellungen, Vergewaltigungen usw. beinhaltete), von billigeren Arbeitskräften im globalen Süden geleistet wurde.
  • in der anhaltenden Testphase. Da eine spezielle Form des maschinellen Lernens benutzt wird (Reinforcement Learning from Human Feedback, RLHF), trainieren Benutzer durch ihre Rückmeldungen, in denen sie Antworten als richtig und gut ansehen, das System immer weiter. Insofern sind Systeme wie ChatGPT durch die Benutzer veränderbar. Diese können sie besser machen oder gezielt dahingehend beeinflussen, dass sie für Desinformation und Manipulation missbraucht werden können.

Erstes Ziel: Transparenz

Die Frage, ob Einsetzen von KI moralisch vertretbar ist, kommt jedenfalls zu spät; KI ist auf vielen Ebenen längst implementiert, ohne dass es uns überhaupt bewusst ist. Wir müssen aber alle  Anstrengungen für eine effektive und machbare Handhabung unternehmen mit dem Ziel, dass KI zum Wohl der Allgemeinheit eingesetzt wird; dabei sind Gesichtspunkte der Entwickler zu hinterfragen, bei denen Ökonomisches oft im Vordergrund stehen. Auch müssen Menschen, die technische Systeme gezielt für Desinformation einsetzen, zur Rechenschaft gezogen werden.

Darüber hinaus müssen wir zwischen Euphorie und apokalyptischem Denken einen Mittelweg finden, eine verantwortliche Haltung. An erster Stelle ist Transparenz für alle Beteiligten und Betroffenen erforderlich, dazu der erste unabdingbare Schritt: Quellenangaben, damit jeder Einzelne veröffentlichte Inhalte auf Zuverlässigkeit überprüfen kann. Bei dieser Gelegenheit sollten wir uns selbst hinterfragen: agieren wir nicht oft selbst wie Chatbots, wenn wir ungeprüft irgendwo gelesene oder gehörte Informationen einfach weitergeben? Es ist erfreulich, dass der European AI Act, dem das EU-Parlament gerade zustimmte, auch verschiedene Riskogruppen definiert. Medizin gehört sicher zum Hochrisikobereich. Das komplexe Thema angedeutet in einem Satz: KI kann uns rasch große Datenmengen für eine sicherere Beurteilung zur Verfügung stellen, aber weder Ärzt:innen Entscheidungen abnehmen noch korrekt mit der Aufklärung und Entscheidungsfindung von Patient:innen umgehen. Ähnlich wie KI sicher nach rascher Paragrafensichtung schneller ein korrektes Strafmaß nach Gesetzesvorgaben finden, aber nicht über Menschen richten  kann.

 

Literaturtipps

Deutscher Ethikrat: Stellungnahme Mensch und Maschine

Catrin Misselhorn: Grundfragen der Maschinenethik

Katharina Zweig: Ein Algorithmus hat kein Taktgefühl

Oliver Bendel:450 Keywords Digitalisierung

Und schließlich kann man heute auch schon einen diesbezüglichen von KI  (ChatGPT)  erstellten Text mit korrekt angegebenem ‘Autor ChatGPT’ erwerben und lesen. Spannend wären hier Rezensionen von Philosoph:innen.

ChatGPT (Autor): Die ethischen Herausforderungen im Umgang  mit ChatGPT: eine platonische Betrachtung

 

Dank für Bild an Julius H. auf pixabay