Dass Computer und Algorithmen immer stärker in unser Leben eingreifen, ist mittlerweile eine Binsenweisheit. Doch erstreckt sich das bereits auf Bereiche, an die man noch eher selten denkt: Künstliche Intelligenz (KI) wird zunehmend auch dazu eingesetzt, dem Menschen Entscheidungen abzunehmen bzw. sie dem Menschen aufzubereiten. Das Problem heute dabei: "Man weiß nicht, wie diese Entscheidungen zustande kommen", bringt Matthias Wendland, Professor am Institut für Unternehmensrecht und Internationales Wirtschaftsrecht an der Universität Graz, das Problem auf den Punkt.

Künstliche Intelligenz verwendet heutzutage oft neuronale Netze, um etwa Voraussagen zu treffen oder bestimmte Muster zu erkennen. Diese Methode funktioniert aber wie eine "Black Box": Das Verfahren ist so, dass man nicht nachvollziehen kann, wie Entscheidungen zustande kommen. Nicht einmal die Programmierer können das, wie Wendland betont.

Entscheidungen werden von der KI formuliert

DDS (Decision Support Systems) heißt dieser Zweig der Künstlichen Intelligenz, der derzeit enorm wächst. Eingesetzt werden sie in Bereichen wie Bildung ("intelligente" Tutorsysteme), Wirtschaft (Vorhersage des Kundenverhaltens), Gesundheitswesen (Vorhersage von medizinischem Bedarf) und sogar in der Politik (Vorhersage der politischen Nachfrage und Simulation von Politikeffekten) eingesetzt. Ein Beispiel, das heftige Wellen schlug, war der Algorithmus, der beim Arbeitsmarktservice zum Einsatz kommen sollte.

"Entscheidungsprozesse sind grundsätzlich immer darauf gegründet, dass Entscheidungen rational begründet werden können", erläutert Wendland die Problematik. Aber wie kann künftig ein CEO eines Unternehmens eine Entscheidung begründen (wie grundsätzlich gesetzlich gefordert), wenn sie ihm von einer "Black Box" geliefert wurde? Beispielsweise kann es sich um die Kreditwürdigkeit einer Person handeln: Die KI entscheidet entweder selbst oder bereitet eine Entscheidung vor, ob ein Kunde kreditwürdig ist. Derzeit ist rechtlich unklar, welche Verantwortung hier die Manager tragen, welche Verantwortung die Software-Ingenieure.

In der KI kann zum Beispiel latent Diskriminierung von Personengruppen eingebaut sein – etwa dadurch, dass die KI an Hand von Beispielen lernt und daher bestehende Diskriminierungen verstärkt.

Diskriminierungen werden verstärkt

Viel diskutiert wird etwa auch, inwieweit auch bewusste und unbewusste Annahmen über die Welt und die Gesellschaft bei den Technikern eine Rolle spielen, die solche Systeme entwerfen und programmieren. Im Zusammenhang mit dem autonomen Fahren etwa wird breit diskutiert, wie der Computer hochkomplexe Situationen löst. Wenn das Auto bei einem Unfall die Wahl treffen muss zwischen mehreren Opfern: Welche Opfer wählt es aus? Welche bleiben verschont? Wer verantwortet das?
Wendland, der in Harvard (USA) lehrte, verweist auch auf andere Probleme: KI "erstickt" den Diskurs, die Autorität intransparenter Algorithmen verhindert jede Debatte.

Mehr noch: Manipulationen sind möglich (und bleiben unentdeckt), Schwachstellen bestehender Entscheidungsprozesse werden verstärkt, (unangenehme) Entscheidungen werden an die KI "delegiert", individuelle Ansichten werden quasi von der KI weggebügelt.

Wer trägt Verantwortung?

Wendland fordert, dass die KI stärker gesellschaftsorientiert sein soll. "Wir wollen erreichen, dass Entscheidungen erklärbar und nachvollziehbar werden. Das muss bereits beim Design mitbedacht werden." Welche Daten werden verwendet? Wie sind diese gewichtet? Allerdings: Wie geht man mit Programmen und Code-Sequenzen um, die sich dynamisch ändern? Wie wird das dokumentiert? Das ist nicht nur eine technische, sondern auch eine vorerst weitgehend ungeklärte rechtliche Frage.

"Wir Juristen beschäftigen uns nicht mit der konkreten Umsetzung, aber mit Fragen der Autonomie des Individuums, der Verantwortung für Handlungen und Entscheidungen und mit dem Thema Transparenz."

Ein Video der Universität Graz mit Professor Wendland zu seinen Arbeiten