Bitte warten - Ihr Zugang wird eingerichtet.

Autonomes FahrenWie man Vertrauen in die Technik schafft

An der Universität Graz erstellten Psychologen, Philosophen, Soziologen und Juristen einen Vertrauenskatalog für künftige autonome oder automatisierte Fahrzeuge.

×
Artikel gemerkt

Gemerkte Artikel können Sie jederzeit in Ihrer Leseliste abrufen. Zu Ihrer Leseliste gelangen Sie direkt über die Seiten-Navigation.

Zur Leseliste
Das Thema "autonomes Fahren" beschäftigt auch Juristen, Psychologen, Philosophen und Soziologen © Uni Graz
 

Ein bisschen ist ja derzeit der große Hype um das „autonome Autofahren“ abgeflaut, und doch beschäftigt es viele Experten und Laien. Wie soll eine Welt aussehen, in der Maschinen – also quasi fahrbare Computer – den Straßenverkehr dominieren? Doch auch jetzt schon, bei Assistenzsystemen, stellen sich Fragen jenseits der Technik.

In einer Kooperation der Universität Graz mit der Virtual Vehicle Research GmbH  haben sich im Rahmen des Projektes „Verdi“ (Vertrauenswürdigkeit in der Digitalisierung am Beispiel des teil-/autonomen Fahrens), das vom Zukunftsfonds des Landes Steiermark finanziert wurde, eine Reihe von Wissenschaftlern genau mit solchen Fragen befasst. Philosophinnen, Soziologen, Psychologinnen und Juristinnen diskutierten, was „Vertrauenswürdigkeit“ am Beispiel des (halb-)autonomen Fahrens bedeuten kann. Projektleiterin Elisabeth Staudegger, Professorin am Institut für Rechtswissenschaftliche Grundlagen: „Wir haben uns bemüht, einen Kriterienkatalog aufzustellen, was es braucht, damit Menschen Vertrauen in solche Systeme haben.“ Solche Kriterien müssten künftig beim Design von Autos bzw. beim Softwaredesign einfließen.

Ein paar dieser Werte, die sich hier herauskristallisiert haben, erklärt Staudegger. Menschen wollen im Auto privat sein und bleiben. Das heißt: Sensoren dürfen zwar einiges registrieren, aber das muss auf das Auto beschränkt bleiben.

Sicherheit, Transparenz, Privatheit

Ein großes Feld ist das Thema Sicherheit. Menschen fassen nur dann Vertrauen in eine Technologie, wenn sie quasi keine Fehler macht. Doch ein Riesenproblem sei die Frage, wer für einen Fehler verantwortlich ist. Der Fahrer, der die Assistenzsysteme überwachen muss? Der Autohersteller im Sinne der Produkthaftung? Oder gar der Softwarehersteller, wobei derzeit Software als „körperlose Sache“ rechtlich gar nicht haftbar gemacht werden kann?

Ein wichtiger Punkt sei auch die Transparenz solcher Systeme, so Staudegger. Bei Umfragen erklärten Menschen, sie möchten wissen, wer bei einem automatisierten Auto am Steuer sitzt: Ein Mensch oder ein Computer? Man müsse dies von außen erkennen können.

Viele dieser Fragen stellen sich bereits bei raffinierteren Assistenzsystemen, die von Fahrern überwacht werden. So etwa müssen Regeln geschaffen werden, wie lange ein Mensch zum Reagieren brauchen darf, wenn ein Assistenzsystem ausfällt oder gehackt wird. Wer darf welche Daten wie lange und wo speichern? Wie dürfen solche Daten in (externen und internen) lernenden Systemen verwendet werden?

Eben wird eine (virtuelle) Abschlusstagung vorbereitet. Das Team erhielt 2019 einen der Wissenschaftspreise des Landes Steiermark zum Thema „Digitalisierung und Wissenschaft“.

 

ein Podcast der Universität Graz zu dem Thema findet sich hier

Diskutieren Sie mit - posten Sie als Erste(r) Ihre Meinung!
Kommentieren