Wo kommen Sie selbst im Alltag mit Künstlicher Intelligenz in Berührung?

Paul Nemitz: Oft weiß ich im Alltag selbst nicht, ob es sich tatsächlich um Künstliche Intelligenz handelt oder nicht. Viele Unternehmen behaupten, in ihren Dienstleistungen sei bereits KI enthalten, wenn es doch nur gesteigerte Automatisierung ist. Ich besuche Labore von Universitäten und teilweise auch Firmen, die mir dann vorführen, was sie an KI entwickelt haben. Ich kann nicht wirklich technisch beurteilen, ob das KI oder etwas anderes ist, und ob es funktioniert, nach den Standards der Technik. Ich beschäftige mich als Jurist hauptsächlich mit dem Entwerfen von rechtlichen Regeln.

Besonders junge Menschen werfen der EU vor, sie berücksichtige technologischen Fortschritt zu wenig in der Gesetzgebung.

Die Vorstellung, dass Gesetze an den technologischen Fortschritt angepasst werden müssen, ist grundfalsch. Gute Gesetzgebung braucht kein ständiges Update. Sie ist technologieneutral und hat auch dann noch eine Bedeutung, wenn sich die Technologie schon dreimal weiterverändert hat. Dafür muss man in einer Demokratie diskutieren und Mehrheiten gewinnen. Das dauert viel länger, als im Alleingang ein Programm zu schreiben.

Wie sehr prägt Künstliche Intelligenz unsere öffentliche Debatte heute schon?

Es gibt Anhaltspunkte, dass Menschen schon heute verdeckt im Internet in ihrer Wahlentscheidung beeinflusst und manipuliert werden. Wenn man dem britischen Parlamentsbericht über Facebook und Cambridge Analytica glauben darf, dann wäre die Brexitabstimmung ohne diese Manipulation anders ausgegangen. Man kann die These vertreten, dass Technologie und Soziale Netzwerke schon heute einen gewaltigen Schaden für die britische Demokratie produziert haben. Ob und wie genau Künstliche Intelligenz im Einsatz war, können wir nicht beurteilen, da wir keinen vollen Zugriff auf die damals verwendeten Programme haben.

Sie waren an der Entwicklung der Datenschutzgrundverordnung maßgeblich beteiligt. Wie wird sich diese auf die Entwicklung künstlicher Intelligenz in der EU auswirken?

Das wird eine sehr wohltuende Wirkung haben, denn sie gilt auch für die Funktionsweise Künstlicher Intelligenz. Geht es um die Verarbeitung persönlicher Daten, muss das Programm die Regeln beachten. Die Nutzer werden das Recht haben, automatisierten Entscheidungen zu widersprechen. Außerdem werden Programmentwickler dazu verpflichtet, dem Nutzer aussagekräftige Informationen über die Logik, Zweck und Konsequenzen der Datenverarbeitung mitzuteilen.

In China fehlen solche rechtlichen Schranken fast völlig. Viele gehen deshalb davon aus, dass China einen Vorsprung hat. Teilen Sie diese Meinung?

Nein. Erstens ist die Begeisterung für Investitionen in künstliche Intelligenz in China rückläufig, allein im letzten Jahr sind sie um 30 Prozent eingebrochen. Den Investoren wird klarer, dass die Kunden im Ausland, wie auch im Fall Huawei, chinesischer Technologie misstrauen. Zweitens ist völlig klar: Wenn sich die künstliche Intelligenz nicht an Grundregeln wie Demokratie und Rechtsstaatlichkeit hält, ist sie nicht weltweit einsetzbar! Man kann sie nur an Diktatoren verkaufen, aber nicht an eine Demokratie. Nur Programme, die solche Regeln von Anfang an inkorporieren, sind weltweit verkaufbar. Europa entwickelt solche Technologie, bildet qualifizierte Entwickler aus und gibt sich die notwendigen rechtlichen und ethischen Regeln. Deshalb bin ich ganz optimistisch, dass Europa auf lange Sicht ökonomisch erfolgreicher sein wird. Es ist genau wie beim Umweltschutz. Es hat sich als nicht erfolgreich erwiesen, den Umweltschutz dem Wirtschaftswachstum unterzuordnen. Genauso glaube ich, dass eine gewisse Ökologie im Umgang mit Daten und Demokratie auch wirtschaftlich erfolgreicher sein wird.

China ist auch der erste Staat, der Künstliche Intelligenz flächenmäßig auf Regierungsebene einsetzt. Können autoritäre Staaten Künstliche Intelligenz missbrauchen, um die Massen zu manipulieren?

Die Massenkontrolle von Bewegungsmustern, Verhaltensweisen und Einstellungen von Menschen weckt natürlich Phantasien der vollständigen Beherrschbarkeit. In China gibt es bereits jetzt ein System sozialer Punktevergabe, hier sind Bewertung und Sanktionierung von Menschen automatisiert. Der Traum von kommunistischen Parteien war es immer schon, den Kommunismus durch Technologie zu verwirklichen. Ich gehe fest davon aus, dass dieser Versuch zum Scheitern verurteilt ist. Menschen, die sich vollständig unter Maschinenkontrolle sehen, bringen eine Gesellschaft nicht weiter. Sie sind nicht so kreativ, weder innovativ noch kritisch. Auf lange Sicht wird ein neuer Biedermeier eintreten: Die Mehrheit möchte am liebsten mit dem Kopf gesenkt zuhause bleiben und schon gar keine Initiative ergreifen, weil man befürchten muss, aufgrund der ständigen Beobachtung Punktabzüge zu bekommen. Das ist etwas, wo wir sehr wachsam sein müssen. Ist ein Land erstmal eine Diktatur mit diesen neuen Technologien, wird der Weg zurück zur Demokratie nicht leichter.

Was sind für Sie die wichtigsten Eigenschaften einer verantwortungsbewussten KI?

Zunächst einmal ist Transparenz extrem wichtig. Der Nutzer muss verstehen, dass eine Maschine und kein Mensch kommuniziert. Das Bild der Diskussionslage kann sonst in den sozialen Netzwerken völlig verzerrt werden, wenn die Transparenz fehlt. Dazu gehört auch Erklärbarkeit: Ohne eine Begründung kann Künstliche Intelligenz nicht in einem Rechtsstaat eingesetzt werden. Es ist unvorstellbar, dass Programme eingesetzt werden, die ohne Erklärung zu Entscheidungen kommen, das würde an Verantwortungslosigkeit grenzen. Es kann nicht richtig sein, Programme entscheiden zu lassen, von denen wir selbst nicht verstehen, wie sie funktionieren.

Wo zieht man dann die Grenze zwischen interner Konzernethik und einem nötigen Gesetz?

Man muss die Grenze nach dem Wesentlichkeitsgrundsatz ziehen. Alles, was für die Grundrechte oder die Funktion des Gemeinwesens wesentlich ist, muss durch den Gesetzgeber geregelt werden. Das Verhalten von autonomen Autos etwa betrifft uns alle. Fast jedes EU-Land hat einen eigenen Ethikkatalog entwickelt, das allein ist aber zu wenig. Jetzt ist es Zeit, auf europäischer Ebene Entscheidungen zu treffen. Gibt man dem neoliberalen Anbohren der Technologiekonzerne statt? Das ist auch eine ideologische Frage.

Wie versucht die EU, einer Monopolstellung des Silicon Valley entgegenzuwirken?

Derzeit gibt es nur fünf Konzerne in Amerika und vier in China, die großflächig kommerzialisierte Systeme liefern können. In Europa ist derzeit noch kein Konzern in der Lage. Das ist ein Problem, deswegen wurden Mittel zur Förderung von Forschung und Nutzung künstlicher Intelligenz aufgestockt. In diesem Technologiewettbewerb müssen wir weiterhin dafür sorgen, dass wir vorne dabei sind. Wir müssen auch unsere Stärken sehen und nicht immer nur über unsere Schwächen reden. Es gibt viele Bereiche, in denen Europa sehr gut dabei ist, darauf sollten wir mit mehr Selbstvertrauen blicken.