KI begleitet uns im Alltag – von den Anwendungen unseres Smartphones über die Einparkhilfe bis zum maschinengenerierten Zeitungsartikel – aber wie soll sichergestellt werden, dass diese Anwendungen ethisch vertrauenswürdig sind?

Im April 2019 veröffentlichte die Europäische Union erstmals Richtlinien für vertrauenswürdige KI; bereits ein wenig früher erschien das „White Paper“ des österreichischen Robotik-Rates, das Empfehlungen für die Zukunft von KI abgibt. Sabine Köszegi hat überall mitdiskutiert: Die Professorin ist Vorsitzende des österreichischen Robotik-Rates und Teil der europäischen Expertengruppe. Außerdem arbeitet sie aktuell an einem Forschungsprojekt zu sozialer Robotik und unterrichtet an der TU Wien.

Sie führen die Vortragsreihe “Trust in Robots” an der TU – warum sollten wir den neuen Technologien, die da auf uns zurollen, vertrauen?

Meine Position dazu ist nicht, dass man der Technologie vertrauen soll, sondern ich frage mich, wie die Technologie gestaltet sein muss, sodass man ihr vertrauen kann. In unserem Doktoratskolleg und der gleichnamigen Vortragsreihe „Trust in Robots“ befassen wir uns genau damit. Wie müssen wir KI-Systeme gestalten, so dass wir Menschen jederzeit entscheiden können, wann und ob wir sie nutzen möchten, wie wir sie kontrollieren und verstehen können, was sie tun und warum sie welche Entscheidungen treffen. All diese Dinge sind bereits bei der Entwicklung und im Design wichtig: Wenn ich weiß, dass eine KI Technologie verantwortungsvoll und nach ethischen Richtlinien entwickelt wurde, dann habe ich gute Gründe, ihr auch zu vertrauen.

Im einem Standard-Podcast betonten Sie, dass der “realistische Blick auf KI zu kurz komme” – wie kann man den Menschen die Vorstellung, dass hier bald Zustände wie in “Ex Machina” herrschen werden, nehmen?

Einerseits wird die Technologie unterschätzt, andererseits wird sie überschätzt. Wenn man sich zum Beispiel die Robotik-Technologie ansieht, sind wir noch weit davon entfernt, leistbare Roboter zu haben, die sich sicher in unserem Haushalt bewegen und uns bei der Hausarbeit unterstützen können. Sprich, ein Roboter, der meine Großmutter pflegt, wird in naher Zukunft nicht auftauchen. Vor solchen Szenarien braucht man keine Angst zu haben. Aber andererseits delegieren wir bereits heute Entscheidungen an Algorithmen, deren Funktionsweise wir als Nutzer_innen nicht verstehen. Beim Google-Suchalgorithmus etwa werden bestimmte Ergebnisse vorgereiht und andere nachgereiht, ohne dass wir genau wissen könnten, warum - dort gibt es schon mehr Auswirkungen als wir wahrhaben wollen. Deshalb ist es schwierig zu sagen, wie wir ein realistisches Bild bekommen können.

Gerade die fehlende Kontrolle über Algorithmen und ihre Entscheidungen – eben auch das erwähnte Google – ist eigentlich ein großes Problem. Wie kann könnte man Unternehmen, die KI-Technologien einsetzen, reglementieren?

Das ist eine der Diskussionen, die wir in der Expert_innengruppe in Europa aber auch im Rat für Robotik und KI in Österreich führen: Eine Anforderung, die wir in den Ethikrichtlinien festgelegt haben ist die “transparency”, also Transparenz über Zielsetzungen und Programmierung des Algorithmus, sowie über die Daten, die verwendet werden. Eine weitere Anforderung ist die “explainability”: Für uns Nutzer_innen muss nachvollziehbar sein, welche Faktoren zu einer Klassifikation durch einen Algorithmus geführt haben.

Die Schwierigkeit ist, hier einerseits die Interessen der Hersteller zum Schutz ihres Know-hows und andererseits die Interessen der Konsument_innen unter einen Hut zu bringen. Manchmal ist eine gesetzliche Regelung notwendig: Das europäische Datenschutzgesetz etwa schreibt vor, dass ein Mensch Recht auf Erklärung einer Entscheidung hat. Wenn ich als Kundin von einem Kreditinstitut aufgrund eines Algorithmus abgelehnt werde, muss mir die Bank eine nachvollziehbare Begründung geben können.

In den gerade erwähnten Ethik-Richtlinien, die im April 2019 erschienen sind, taucht auch immer wieder das Schlagwort “accountability” auf – Wer soll die Verantwortung für selbst operierende Maschinen übernehmen?

Das ist eine schwierige Frage: “Accountability”, also die Haftungsfrage geht ja nach dem Verursacher-Prinzip, aber aufgrund der Komplexität dieser Systeme ist oft nicht mehr klar, wer eigentlich der Verursacher eines Problems oder eines Schadens ist. Rund um dieses Thema werden in der Literatur Konzepte wie “shared responsibility” diskutiert, also, dass sich für einen durch ein KI-System erlittenen Schaden alle, die am Prozess beteiligt waren, verantworten müssen. Hier ist allerdings noch viel Diskussion bis zur Implementierung neuer Regulierungen erforderlich.

Die KI-Richtlinien wurden bereits als zu wenig konkret und praxisorientiert kritisiert, in den Alpbach-Dialogen bezeichneten Sie sie aber als “das Beste, was wir haben”. Ist das Beste schlicht nicht gut genug?

Die Richtlinien sind ein guter Ausgangspunkt: In Kapitel drei findet sich ein Pilot-Fragenkatalog, der Unternehmen helfen dabei soll, wie sie verantwortungsvolle KI-Systeme entwickeln und implementieren können. Im nächsten Jahr wird sein, gemeinsam mit unterschiedlichsten Unternehmen aus verschiedenen Branchen ein praxistaugliches Tool zu entwickeln. Es ist also völlig klar, dass das erst ein erster Wurf ist. Ich bin trotzdem überzeugt, dass diese Richtlinien die besten sind, die wir derzeit haben, weil sie klare, auf Menschenrechten basierende, Anforderungen an KI-Systeme definieren und das gibt es in dieser Ganzheitlichkeit meines Wissens in keinem anderen Land.

Sie sind sozusagen das beste Instrument, das wir derzeit haben, aber die Technologie ist mit viel Unsicherheit verbunden und einiges wissen wird schlicht und ergreifend heute nicht. Manche der formulierten Probleme erweisen sich in zwei bis drei Jahren als vielleicht überzogen und anderen als unterschätzt. Dennoch, nach heutigem Wissensstand und unter Einbeziehung unterschiedlicher Expertinnen und Experten haben wir dieses vorzeigbare Ergebnis zustande gekommen.

Ist es sozusagen die Utopie, dass irgendwann überall auf der Welt Gesetze auf Richtlinien wie denen der EU basieren?

Die Definition dieser Richtlinien ist ein bisschen komplexer: Es gibt bereits eine Reihe von Gesetzen – Datenschutz, Konsumentenschutz, und so weiter –, die selbstverständlich auch die Nutzung von KI Technologie regeln. Die Ethik-Richtlinien dagegen legen über diese Gesetze hinaus fest, wie eine künstlich intelligente Technologie ausgestaltet sein muss, damit sie vertrauenswürdig ist. Eine Technologie muss zum Beispiel technisch robust sein. Es dürfen keine KI-Systeme zum Einsatz gebracht werden, die unzuverlässig sind. Die Ethik Richtlinien könnten dann in weitere Folge die Grundlage für mehrere Dinge sein: Zum einen können politische Entscheidungsträger in manchen Bereichen Gesetze erlassen, um die Richtlinien durchzusetzen. Das werden sie insbesondere dort machen, wo bestehende Gesetze Lücken aufweisen, wie z.B. bei Fragen der Haftung.

Es könnten aber auch – etwa durch Steuervorteile – Anreize geschaffen werden, um Unternehmen dazu zu bewegen, bestimmte Vorschläge aus diesen Richtlinien aufzunehmen. Eine dritte Möglichkeit ist, dass Unternehmen sich freiwillig an die Richtlinien halten, um daraus einen Wettbewerbsvorteil zu generieren. Das passiert etwa dann, wenn Konsument_innen bevorzugt KI Produkte kaufen oder KI Services nutzen, die nach diesen Richtlinien entwickelt wurden. Längerfristig könnte man also über ein Zertifikat nachdenken, sozusagen ein Qualitätsgütesiegel für Konsumentinnen und Konsumenten, das dann auch für Unternehmen ökonomische Vorteile schafft.

Eine Studie der Boston Consulting Group bescheinigt Österreich in Sachen KI ein eher schlechtes Zeugnis: Nur 13 Prozent der Unternehmen nutzen künstliche Intelligenz tatsächlich – Wie kann Österreich aufholen?

Die Ausgangshypothese ist, dass die Nutzung von KI-Technologie österreichische Unternehmen wettbewerbsfähiger macht. Darum möchte man, dass mehr Unternehmen diese Technologie nutzen. Wir werden in Österreich zwar kein weiteres Google aufbauen, aber wir sollten Unternehmen grundsätzlich über die Potenziale von KI Technologien informieren: Ich glaube, viele Unternehmen wissen nicht, wie sie selbst KI sinnvoll nutzen könnten und wie sie vielleicht auch mit anderen Unternehmen zusammenarbeiten könnten, um beispielsweise ihre Daten zu teilen und dadurch bessere Algorithmen entwickeln zu können.

In vielen Bereichen haben österreichische Unternehmen bereits jetzt großes Know-how. Eine Innovationsstrategie in Robotik und KI sollte jedenfalls versuchen, bereits vorhanden Stärken zu stärken und in Nischen zu investieren.

Welche Nischen könnte Österreich konkret in der KI-Entwicklung besetzen?

Robotik und Sensortechnologie ist wie gesagt etwas, wo wir sicher teilweise Weltspitze sind. Es gibt ja auch das Silicon Austria…

Der österreichische Komplexitätsforscher Stefan Thurner betonte im April, dass Österreich eine “Neuerfindung” des Bildungssystems brauche, um KI mitzugestalten - Wie muss sich Ausbildung Ihrer Meinung nach verändern?

Hier sind zwei Dinge erforderlich. Das eine ist, dass wir die Menschen in den sogenannten “digital skills” unterstützen müssen. Was mir aber auch wichtig ist, ist, dass wir die Menschen in den Bereichen stärken, in denen sie den KI-Technologien überlegen sind. Unser Schulsystem muss darauf ausgerichtet werden, die Kinder auf eine neue Arbeitswelt vorzubereiten. Momentan konzentriert es sich sehr stark auf Reproduktion von Faktenwissen, und auf Anpassung – aber all das wird in Zukunft deutlich weniger wichtig sein.

Menschen werden häufiger einen Jobwechsel haben und sich schneller auf neue Anforderungen einstellen müssen. Ein Umbau des Bildungssystems ist also erforderlich: Es muss mehr Eigenständigkeit, Kritisches Denken und Kreativität fördern. Die Schüler_innen müssen in ihren persönlichen, sozialen und kulturellen Kompetenzen gestärkt werden. All das sind Dinge, die ganz enorm wichtig sein werden, um die neuen Herausforderungen zu bewältigen.

Für August 2019 kündigte die österreichische Regierung eine KI-Strategie an, die auf dem “White Paper” des Robotik-Rates basieren soll – was wünschen Sie sich als Vorsitzende des Rates für diese Strategie?

Drei Dinge: Erstens, dass sie die Ethik-Richtlinien der europäischen Kommission aufgreift und als Grundlage nimmt. Zweitens, dass Österreich seine Strategie gut mit der europäischen abstimmt, um auch bestmöglich von der europäischen Strategie profitieren zu können und als drittes, dass es durch sehr kluge Schwerpunktsetzungen gelingt, alle Bürger_innen zu Gewinner_innen dieser Technologie zu machen.