Der Fahrer nimmt die Hände vom Lenkrad, das Auto findet sich selbstständig zurecht. Ein Arzt gibt einen Befund ein und IBM Watson liefert Behandlungsvorschläge. In Japan wird an Robotern für die Pflege der älter werden Bevölkerung gearbeitet. Intelligente Systeme dringen in immer mehr Bereiche der Gesellschaft ein.

Doch für Programmierer tut sich in diesem Gebiet eine Grenze auf; keine technische, sondern eine moralische. „Denn Computer sind eingefasst durch die Vorurteile derjenigen, die sie konzipiert und gebaut haben“, erklärt Janina Loh. Die Philosophin forscht an der Universität Wien zu Fragen der Roboter-Ethik.

Diese Analyse kann Gerald Steinbauer von der Technischen Universität Graz nicht zur Gänze teilen. Er unterscheidet hier zwischen zwei Systemen: „Es gibt semantische Algorithmen, die von jemandem programmiert wurden und klaren Regeln folgen. Anders das maschinelle Lernen.“ Genau daran arbeiten Konzerne wie Google, Microsoft oder IBM: Systeme, die aus Daten oder Interaktion mit Menschen lernen und sich selbst weiterentwickeln. „Hier weiß man nicht mehr, warum ein Programm ein bestimmtes Ergebnis liefert“, sagt der Techniker.

Chatbot wird zum Rassisten

Wie schnell so ein Programm fehlgeleitet werden kann, zeigt der Fall von Microsofts Chatbot Tay. Vor etwas mehr als einem Jahr durfte Tay erstmals mit Menschen interagieren. 16 Stunden später musste Microsoft das Programm deaktivieren. Tay war zum Rassisten geworden. Gesellschaftliche Regeln hatten die Programmierer dem Chatbot nie beigebracht.

„Auch rechtliche Fragen rund um den Einsatz solcher Systeme sind ungeklärt“, sagt Steinbauer. „Wer ist zum Beispiel schuld, wenn sich der Medizin-Computer irrt?“ Nicht der Programmierer, meint Steinbauer. Der Medizin-Professor sei ja auch nicht für Fehler seiner Studenten verantwortlich.

Gesunder Hausverstand

Die Frage der moralischen Vorschriften für Computer sei sehr komplex, sagt auch Philosophin Loh: „Schon Menschen folgen nicht einem einzigen Prinzip. Sie wechseln munter zwischen ethischen Systemen hin und her.“ Es gibt drei zentrale ethische Grundsätze in der Gesellschaft: Man will gewisse Tugenden wie Gerechtigkeit realisieren, man will aus den richtigen Motiven agieren oder mit seinem Handeln das Glück und Wohl der Mehrheit fördern. „Es gibt kein objektives Richtig oder Falsch im Sinne der empirischen Wissenschaften. Es gibt nur bessere und schlechtere Gründe“, sagt Loh. „Im Zweifel können wir den gesunden Menschenverstand nutzen und uns über Regeln hinwegsetzen.“

Das für eine künstliche Intelligenz zu definieren, sei alles andere als trivial. Und selbst wenn es klappt, müsste sich die Gesellschaft auf die genauen moralischen Normen für künstliche Kreaturen einigen.

Bei diesem Thema wird der TU-Professor nachdenklich: „Die Gesellschaft muss sich fragen, ob sie das wirklich will“, sagt Steinbauer. „Sollen wir die Entstehung der sogenannten Singularität riskieren, eines Systems, das sich selbst verbessert und uns am Ende den Rang als einzige intelligente Spezies auf der Erde streitig macht?“