Krankheit und Armut ausrotten, Schaden an der Natur wiedergutmachen. All dies sprach der im Vorjahr verstorbene Physiker Stephen Hawking künstlicher Intelligenz an Potenzial zur Verbesserung der Welt zu. Ernst klingt aber auch seine Warnung nach: „Wenn wir nicht lernen, uns auf mögliche Gefahren vorzubereiten und sie zu vermeiden, könnte künstliche Intelligenz das schlimmste Ereignis in der Geschichte unserer Zivilisation sein.“ Wo lauern die größten Gefahren hinter dem Reiz einer technologisch generierten Intelligenz? Droht ein Menschheitstraum in Zersetzung von Gesellschaft und ihren Werten zu kippen? Was greift die Freiheit des Einzelnen an?

„Die Technologie ist neutral“, sagt Charlotte Stix, „aber es gibt zwei Probleme mit künstlicher Intelligenz: Erstens, wie wir Menschen sie einsetzten und zweitens, welche Folgen es hat, wenn sie nicht auf unsere Werte abgestimmt ist.“ Dafür hat die Forscherin des Leverhulme Zentrum für die Zukunft der Intelligenz an der Universität Cambridge zwei drastische Fälle parat: „Zum Beispiel Deepfakes, wo die Gesichter von Frauen auf pornografische Videos superimposed werden können und das Ganze sehr realistisch aussieht. Oder der Fall von Cambridge Analytica, wo Bots ganze Wählergruppen gezielt angegriffen und deren Meinungen verändert haben. So etwas hat Einfluss bis hin auf die Stabilität unserer Demokratie – und ist dabei noch nicht einmal sehr fortgeschritten.“

Entwicklung am Anfang

„Von künstlicher Intelligenz auf menschlichem Niveau sind wir noch Jahrzehnte entfernt,“ beschreibt Aude Oliva, Direktorin des MIT Quest for Intelligence am Massachusetts Institute of Technology, den aktuellen Forschungsstand. Auf der MIT Europe Conference in Wien skizzierte sie Forschungspfade, um dem menschlichen Gehirn noch mehr abzuschauen, um nützliche maschinelle Intelligenz zu entwickeln.

Denn wenn schon der Umgang mit Big Data mit der bereits erreichten „Narrow Artificial Intelligence“ große neue Möglichkeiten und Sorgen zugleich bereitet, was eröffnet uns dann die sogenannte „Emerging AI“, in die wir gerade eintreten mit dem Maschinenverstehen von Sprache, Ereignissen und am Ende gar von Intuition, Gefühlen und eigenem kognitivem Verstand?

„Wir haben im Moment Systeme die sehr gut, sogar besser als Menschen, in einem bestimmten Bereich arbeiten“, sagt AI-Forscherin Stix über den Status quo. „Diese Systeme können aber noch nicht gleich gut in verschiedenen Bereichen arbeiten, wie es eben ein Mensch kann. Durch höhere Rechenleistung und bessere Daten und Algorithmen verändert sich aber auch dieses Bild rasant. Wie schnell wir zu menschlicher oder quasi menschlicher Intelligenz kommen, ist bei Experten umstritten.“

Unterstützung für Menschen

Bis künstliche Intelligenz Sprachen besser übersetzt als Menschen, dauert es laut Studie von Forschern von Yale und Oxford University sowie AI Impact noch bis 2024. Bis sie einen Chirurgen völlig ersetzt bis 2053 (Spalte links). Gleichwohl ermöglicht künstliche Intelligenz bereits jetzt große Fortschritte im Hinblick auf eine humanere, nachhaltigere Welt. Für autonomes Fahren „um Todesfälle im Verkehr zu reduzieren“. Zum Energiesparen „zum Beispiel mit dem DeepMinds-Algorithmus, der den Energiekonsum der Google Datenzentren verringert hat“ listet Stix auf.

Ebenso in der Präzisionsmedizin und um neue Medikamente zu finden, „denn KI ist in der Lage, durch viel mehr Datenbanken viel schneller als ein Mensch durchzugehen und Ergebnisse zu kombinieren“. Aus Satellitenbildern kann künstliche Intelligenz Dürren vorhersehen und Bauern bei Bewässerungsmaßnahmen anweisen. „Im Endeffekt kann es gut sein, dass künstliche Intelligenz uns bei allen Zielen der Sustainable Development Goals (SDG) helfen könnte, wenn wir es dementsprechend entwickeln und einsetzen.“

Die Kehrseite

Hawking fürchtete allerdings auch, „dass die künstliche Intelligenz den Menschen insgesamt ersetzen könnte“. Tesla-Gründer Elon Musk sieht KI als „viel gefährlicher als Atomwaffen“ an und als möglichen „Auslöser eines dritten Weltkrieges“. China setzt Milliarden in künstliche Intelligenz, die roten Linien sind nach dem Willen eines autoritären Regimes definiert, zur Überwachung des Einzelnen per Social Credit System.  Bei Genom-Design per Algorithmen wäre die Erhabenheit des Humanen gefährdet. „Gefahr geht von künstlicher Intelligenz dort aus, wo sie von Menschen negativ eingesetzt wird. Zu Beispiel indem man durch Aggregation von Daten über Einzelpersonen alles herausfinden kann.“

Missbrauch reicht von gezielten „Spear-Phishing-Angriffen“ auf Daten, „die die Ausbeute erhöhen und die Kosten für Angriffe senken“, bis zum Anvisieren und Beschleunigen autonomer Fahrzeuge „durch Modifizieren eines Stoppzeichens, das für das menschliche Auge unsichtbar ist“. Oder man steuert mithilfe von KI Drohnen zum Ausspähen oder für Terrorangriffe wie im Fall von IS oder Mordversuchen wie jüngst in Venezuela. Oder auch einfach durch Umnutzung von Geräten im Internet der Dinge. „Vertrauen wir, dass die Gespräche mit Alexa keiner mithört und auswertet?“

Neue KI-Gesetze

Es braucht also Gesetze und Standards, wie aber zähmen wir künstliche Intelligenz mit Werten? „Es ist sehr schwer, einem Programm oder Algorithmus beizubringen, was man als selbstverständlich empfindet“, erklärt Stix. Werte würden sich verändern und sich in verschiedenen Kulturen differenzieren. „Das Wertesystem, welches wir einem Programm beibringen, muss daher in der Lage sein, sich anzupassen. Ein Wert, dem wir aber alle zustimmen können ist zum Beispiel die körperliche Sicherheit. Demnach ist es wichtig, dass dies als Minimumstandard gilt, sowohl bei industriellen Systemen als auch bei autonomen Fahrzeugen sowie bei Algorithmen, die in der Medizin eingesetzt werden.“

International bestehen kaum Commitments. In Europa gibt es die „AI High Level Expert Group“, in welcher 52 Experten sich mit dem Thema beschäftigen und unabhängig die EU-Kommission beraten. „Vor Kurzem hat diese Gruppe die Ethics Guidelines for Trustworthy AI, für vertrauenswürdige künstliche Intelligenz, publiziert und sie arbeitet gerade daran, Policy- und Investment-Vorschläge der Kommission vorzulegen“, berichtet die beteiligte Forscherin Stix.

Die Kommission habe auch eine KI-Strategie für alle Mitgliedsstaaten herausgebracht mit dem „Coordinated Plan on AI“, der einer Fragmentation in der EU vorbeugen soll. „Der Plan besagt zudem, dass bis 2020 in der EU 20 Milliarden Euro für künstliche Intelligenz bereitgestellt werden, sowie danach jedes Jahr weitere 20 Milliarden.“ International gibt es KI-Prinzipien v der OECD, welche von 42 Ländern und der EU-Kommission unterstützt werden, oder Foren wie den United Nations AI for Good Summit. „Auch die USA sind dabei, eine KI-Strategie zu erarbeiten. China hat schon seit Langem eine sehr ambitionierte Strategie“, so Stix. Dem russischen Präsidenten Wladimir Putin ist klar: „Wer in diesem Bereich die Führung übernimmt, wird die Welt beherrschen.“ In Europa haben etliche Länder eine KI-Strategie, „deren Umsetzung aber fraglich ist“.

Die Wirtschaft erwartet global enorme BIP-Steigerungen durch KI. Laut einer Studie von Microsoft und EY hinkt Österreich bei KI-Einsatz und -Kompetenz in Europa nach. Microsoft-Österreich-Chefin Dorothee Ritz sieht das Thema KI hier erst in den IT-Abteilungen  aber noch kaum bei Vorständen angekommen. WKO-Präsident Harald Mahrer treibt eine KI-Strategie für Österreich voran, sie soll im Sommer kommen. Von der Übergangsregierung.