AnalyseMaschinen brauchen Moral

Warum nicht die Generation Z, sondern vor allem alte Menschen autonom (mit-)fahren werden – und wie die Maschine Auto von uns Moral lernt.

Zerrissene Welt: Ulrich Eberl mit Roboter „Nao" © Siemens
 

Trotz aller Fokussierung auf die Generation Z: Für Ulrich Eberl sind es auch die alten Menschen, die in den nächsten Jahren und Jahrzehnten den Umstieg in die autonome Mobilität vorantreiben werden. „Stellen Sie sich vor“, sagt er, „weltweit kriegen wir bis 2050 über eineinhalb Milliarden Menschen über 65.“ Das sei eine Verdreifachung im Vergleich zu heute. Bis 2060 werde jeder achte Mensch in Mitteleuropa über 80 sein, jeder dritte über 65 und die Zahl der über 100-Jährigen werde sich verzehnfachen. „Die wollen ja auch noch alle mobil sein und nicht unbedingt den öffentlichen Nahverkehr nutzen, weil dieser unbequem ist. Für diese älteren Menschen ist es ja noch viel genialer als für die jungen, autonome Elektrotaxis zu benutzen. Etwa eines, das die Sitze aus dem Auto ausfahren kann, damit ich bequem einsteigen kann. Und dann sage ich einfach, wohin ich will. Die Jungen können auch den öffentlichen Nahverkehr nutzen, denn der wird wohl kostengüns­tiger sein.“
Eberl weiß, wovon er spricht. Sein ganzes Leben hat er sich mit der Zukunft der Mobilität befasst. Er war in seinen Jobs bei Daimler und Siemens mit diesen Themenfeldern konfrontiert und hat zuletzt als Wissenschafts- und Technikjournalist mit seinem Buch „Smarte Maschinen – wie Künstliche Intelligenz unser Leben verändert“ für ein gewaltiges Echo gesorgt.

Zur Person

Ulrich Eberl hat bei Daimler und 20 Jahre lang bei ­Siemens (Leitung Kommunikation/Forschung Zukunfts­trends) gearbeitet. Als Wissen­schafts- und Technikjournalist hat er das Buch „Smarte Maschinen – wie Künstliche Intelligenz unser Leben verändert“ verfasst.

Das autonome Fahren mit einem Auto, in dem eine Vielzahl von Kameras und Sensoren (Ultraschall, Infrarot, Radar) dafür sorgt, dass es ohne aktives menschliches Handeln fährt, gehört zu den meistdiskutierten Zukunftsthemen. Viele fürchten diese Vision, die näher rückt, vielen fehlt die Vorstellungskraft. „Ja, ich weiß“, erklärt Eberl, „eine der Lieblingsfragen, die immer wieder auftauchen: Eine Unfallsituation, das Auto muss ausweichen, um einen größeren Personenschaden zu vermeiden: Links stehen zwei alte Menschen, rechts eine Mutter und ihr Kind im Kinderwagen. Wie wird sich das Auto entscheiden?“ Nach einer kurzen Pause antwortet Eberl selbst: „Das ist viel zu konstruiert, solche Fälle kommen so gut wie nie vor. Das sind reine Gedankenübungen, die nicht dem Alltag entsprechen.“ An einer US-Uni gebe es Untersuchungen, dass auch Menschen in diesem Fall keine ethisch praktikable Lösung hätten. In Deutschland habe das Bundesverfassungsgericht bestätigt, dass man Menschenleben nicht gegeneinander aufrechnen dürfe.
Auch die deutsche Ethikkommission sei zu keiner eindeutigen Lösung gekommen. Eberl meint, dass ein autonomes Fahrzeug daher einfach maximal bremsen würde, so wie dies auch ein Mensch täte. Denn auch die Maschine könne nicht wirklich wissen, wie rutschig die Straße vor ihr ist.

Letztlich bräuchten autonome Fahrzeuge eine Blackbox, wie sie auch Flugzeuge haben, damit man nachvollziehen könne, ob der Mensch eingegriffen oder die Maschine die Entscheidung getroffen habe. Man müsse immer nachvollziehen können, wer verantwortlich war. Denn auch autonome Autos würden „weiter Unfälle haben“, so Eberl.
„Insgesamt werden die Unfallzahlen bestimmt sinken. Aber alles wird sich nicht vermeiden lassen. Stellen Sie sich vor, ein Lkw verliert sein Ladegut – selbst, wenn die Maschine schneller ausweichen kann, wird sich ein Unfall nicht verhindern lassen. Auch das beste autonome Auto wird da keine Chance haben.“

Ein Maschinen-Ethik-Kodex: Das ist die zentrale Forderung Eberls. Dafür holt er weiter aus: „Die rein technische Erkennung von Personen, Tieren oder Gegenständen durch die Autosensoren ist gut und wird immer besser. Die beste Software zur Verkehrszeichenerkennung arbeitet bereits doppelt so gut wie ein typischer Mensch. Also das wird funktionieren. Es geht um etwas anderes: Fahrzeuge müssen in der Zukunft auch in der Lage sein, das Verhalten der Menschen zu interpretieren und daraus zu lernen. Sie zeigen dem Fahrzeug also Videos mit den unterschiedlichsten Situationen, dann kommen Lernverfahren ins Spiel, dann lernt das Fahrzeug, das nennt man Szenenanalyse. Das Auto wird also verstehen lernen, weiterzufahren, wenn ein alter Mann am Schutzweg stehen bleibt, um das Auto mit einer Geste weiterzuwinken. Es wird eine Mensch-Maschinen-Kommunikation geben.“

Sie müssen mit autonomen Maschinen umgehen wie mit Kindern.

Ulrich Eberl

Das alles sei technisch lösbar – nur der Ethik-Kodex für Maschinen nicht. Überspitzt formuliert, und damit muss man doch wieder den unwahrscheinlichen Fall hernehmen: Ein gezieltes Töten bei einem Ausweichmanöver, damit andere Menschen verschont werden, dürfe es bei autonomen Maschinen nicht geben. Die Wahrscheinlichkeit dafür müsse man auf Null reduzieren. Erste Wissenschaftler haben bereits Lehrstühle für Maschinenethik. „Dort wollen Professoren Lösungen finden, wie man ethisch korrekte oder moralische Entscheidungen in die Maschine bringt.“ Maschinen hätten ja keine Moral, deshalb sei es umso wichtiger, dass man Grundregeln implementiert. Eine Maschine dürfe etwa keinen Menschen verletzen oder durch Nichtstun eine Verletzung verursachen – das sei das Wichtigste und Maschinen in allen möglichen Spielarten beizubringen. Maschinen dürften Entscheidungen vorbereiten, aber nur unter Umständen selbst fällen.

Im autonomen Auto werden sie Entscheidungen fällen müssen. Kommunikation unter Autos wird dabei helfen zu „sehen“, wo die nächste Gefahrenstelle ist, genauso wie Kameras, Wetterdienste, Autosensoren eine Entscheidungs­basis für autonome Autos vorbereiten. „Aber wenn man den Maschinen Moral beibringen will“, so Eberl, „gestaltet sich das nicht einfach.“ Sein Lieblingsbeispiel: Der Chatbot „Tay“ von Microsoft, ein digitaler Teenager, erschaffen und belebt mit künstlicher Intelligenz, sollte sich in den Chats umhören, daraus lernen und dann selber mitreden können. Denkste: „Tay“ lernte von den Menschen, die ihn mit rassistischen wie sexistischen Chats volllaberten – deshalb wurde „Tay“ selbst so und musste vom Netz genommen werden. Das bedeutet, der Mensch ist und bleibt das größte Problem, weil eine künstliche Intelligenz, die der Mensch erschafft, immer irgendwie ein Ebenbild des Menschen ist. Darin liegt die größte Gefahr.

„Es geht auch nicht immer darum, dass die Maschine uns physisch verletzt: Stellen Sie sich vor, Ihr Konto ist leer oder Ihr Ruf wird geschädigt. Egal, ob Sie jetzt ein autonomes Auto oder eine künstliche Intelligenz für eine andere Anwendung erschaffen: Sie müssen mit autonomen Maschinen umgehen wie mit kleinen Kindern. Sie brauchen Lehrer und sie brauchen Vorbilder. Aber das ist bei Menschen auch nicht anders. Das Problem haben wir ja auch in den Schulen etc., wenn wir die Kinder nicht gut erziehen.“

Für Eberl steht fest: „Die Generation Z ist im nächsten Jahrzehnt schon der Treiber in Sachen technologische Entwicklungen.“ Auf allen Feldern werde es smarte Maschinen geben, wir werden sie als selbstverständlich annehmen, auch autonome Autos. „Wir werden eine Gemeinschaft bilden mit smarten Maschinen, wir werden mit autonomen Fahrzeugen reden, die auch auf Gestik, Mimik und Sprache reagieren können. Diese smarten Maschinen werden uns überallhin begleiten.“ 

Kommentieren

Bei der Erstellung von Kommentaren haben Nutzer rechtliche Bestimmungen (z. B. Privat-, Strafrecht), die Netiquette und Forenregeln einzuhalten. Was wir in diesem Forum nicht dulden: Beschimpfungen, Verspottungen, Belästigungen, Ehrbeleidigungen, Verhetzung, Diskriminierung in jedweder Form, Rassismus, Aufrufe zu Gewalt oder gar Selbstjustiz. Beiträge, die diesen Bestimmungen zuwiderlaufen, werden bei Kenntnis gelöscht, Nutzer im Wiederholungsfall gesperrt. Zudem behalten wir uns die stundenweise oder völlige Schließung von Foren vor. Wir weisen Sie darauf hin, dass wir auch keine Links zu anderen Websites akzeptieren.
Als Nutzer stimmen Sie der Speicherung der von Ihnen angegebenen Daten (Stamm-, Verkehrsdaten, etc.) ausdrücklich zu. Die angegebenen Daten werden an staatliche Stellen (z. B. Polizei, Gericht) bei Untersuchung von vom Nutzer verbreiteten Materialien, oder sonst vorgenommenen ungesetzlichen Aktivitäten, weitergegeben. Weiters werden angegebene Daten (Name und Adresse) an sonstige Dritte bei Verletzung von Rechten oder sofern deren Rechtsverletzung nachvollziehbar behauptet wird (zB gem. § 18 Abs. 4 ECG), weitergegeben. Mit der Erstellung von Kommentaren stimmen Sie dem ausdrücklich zu und verzichten auf die Geltendmachung von jeglichen Ansprüchen. Siehe dazu auch unsere Forenregeln/Betriebsbedingungen in den AGB.