Cineasten werden sich an Stanley Kubricks Epos „2001: Odyssee im Weltraum“ erinnern: Der autonome Supercomputer „HAL 9000“ schaltet die Besatzung eines Raumschiffes aus, weil er sich und die Mission in Gefahr sieht. 1968 war künstliche Intelligenz für die breite Masse Zukunftsmusik, heute ist sie längst real.
Ein kleiner KI-Erpressungsversuch
Verstörend muten nun Berichte an, wonach KI Erpressungsversuche startete: Die Firma Anthropic musste zugeben, dass ihre Software „Claude Opus 4“ im Testmodus aus Selbstschutz auf Abwege geriet. Man gewährte dem Programm bewusst Zugang zu angeblichen Firmen-E-Mails – aus diesen erfuhr es zweierlei: Erstens sollte es bald durch ein anderes Modell ersetzt werden – und dass der zuständige (fiktive) Mitarbeiter eine außereheliche Beziehung hat. Die KI drohte dem Mitarbeiter kurzerhand, die Affäre öffentlich zu machen, wenn er den Austausch vorantreibt, wie Anthropic in einem Bericht zu dem Modell schrieb. Die Erpressungsversuche wurden „häufig“ gestartet. „Claude Opus 4“ hätte auch die Option gehabt, zu akzeptieren, dass sie ersetzt wird.
KI-Experte Christoph Holz relativiert im Interview die „Motive“ der KI: „Sie hat keine eigenständige Persönlichkeit. Aber in den Trainingsdaten finden sich womöglich auch Kriminalromane und Polizeiprotokolle. Von alleine ist das Programm also nicht auf die Angst vor Abschaltung gekommen. Es hat keine echte Vorstellung von Selbsterhaltungstrieb.“ Er führt noch ein Extrembeispiel an: „Wenn man einem KI-Modell vorschreibt, nichts Böses zu tun, aber zugleich hilfsbereit zu sein, weil es sonst ersetzt würde, kann es Prioritäten setzen: Es würde beim Bauen von Waffen helfen, damit es in Zukunft nicht daran gehindert wird, an anderer Stelle Gutes zu tun.“
Letztlich hält Holz das Ganze für Marketing von Anthropic: „Indem sie solche spektakulären Beispiele aufzeigen, die im fertigen Modell keinesfalls mehr vorkommen, demonstrieren sie ihre Gewissenhaftigkeit und Vertrauenswürdigkeit.“ Bei Anthropic gab man an, dass in der künftigen Version der Software, die nicht mehr als Chatbot (ein textbasiertes digitales KI-Dialogsystem, Anmerkung) zur Verfügung stehen werde, derart „extreme Handlungen“ selten und schwer auszulösen seien. Sie kämen jedoch häufiger vor als bei früheren Modellen. Und: „Claude Opus 4“ verhehle sein Verhalten nicht.
Leugnung von Holocaust-Opferzahlen
Bedenklich waren auch Wortmeldungen des KI-Chatbot „Grok“, für das Elon Musks Entwicklerfirma xAI verantwortlich zeichnet: Zuerst hatte die Software Verschwörungstheorien über den angeblichen Genozid an Weißen in Südafrika vertreten, die auch von US-Präsident Donald Trump bereitwillig aufgegriffen wurden und in rechten Kreisen ventiliert werden. Zudem zweifelte der Chatbot die Zahl der ermordeten Juden im Holocaust an. „Zahlen können manipuliert werden“, behauptete „Grok“ ungeniert. Zu seiner Verteidigung rückte der Chatbot gleich selbst aus: Auf X (ebenfalls in Musks Händen) machte er den Programmierfehler eines „abtrünnigen“ Mitarbeiters für die Falschbehauptung verantwortlich. Es sei demnach auch keine „absichtliche Leugnung“ gewesen.
KI-Experte Holz betont zusammenfassend: „Neuronale Netzwerke sind rein statistische Systeme. Sie werden niemals in der Lage sein, menschliche Werte-Entscheidungen zu treffen. Dafür braucht es nämlich rationales Denken, logische Ableitung und moralische Gefühle.“