Das Robotics-Institut des Joanneum Research mit Sitz im Lakesidepark Klagenfurt beschäftigt sich intensiv mit der Sicherheit von Robotern. Michael Hofbaur ist der Chief Scientist und Direktor der einzigen akkreditierten Prüfanstalt für Robotersicherheit Europas. Er forscht an System- und Regeltheorie sowie an Künstlicher Intelligenz (KI) zur Realisierung von intelligenten und für den Menschen sicheren Robotersystemen.

Dieser Tage tritt Hofbaur einen zwei Monate dauernden Forschungsaufenthalt am Massachusetts Institute of Technology (MIT) an. Mit dem Ziel, in der weltweit führenden Spitzen-Universität "neue Inputs zum risikobewussten Regeln und Steuern von Robotern" zu erhalten. Denn die Entwicklungskurve bei Robotern und Künstlicher Intelligenz steige exponentiell an. "Robotik und KI kommen jetzt in eine Phase, in der exponentielles Wachstum sichtbar wird", sagt Hofbaur. "Vorher sind diese Themen eher dahin gedümpelt, jetzt steigt das Wissen rasant an. Wir müssen aufpassen, dass wir nicht überholt werden."

"Künstliche Intelligenz ist fehlerbehaftet"

Es brauche daher dringend mehr Ingenieurinnen und Ingenieure, die "das begleiten können". Man wisse bereits jetzt, dass Künstliche Intelligenz fehlerbehaftet sei. Dinge neu zu lernen, sei aber zu aufwendig, was Kosten und Ressourcen betreffe. Um Risiken von Robotern einzuschätzen, brauche es ebenfalls viel Wissen im Umgang mit KI (wie zum Beispiel ChatGPT). "Diese KI muss im Gegensatz zu anderen Anwendungen gut überprüfbar sein – es muss sichergestellt werden, dass sie keine falschen Entscheidungen trifft", erklärt Hofbaur.

Michael Hofbaur, Leiter des Robotics-Instituts des Joanneum Research mit Sitz im Lakesidepark Klagenfurt
Michael Hofbaur, Leiter des Robotics-Instituts des Joanneum Research mit Sitz im Lakesidepark Klagenfurt © ©helgebauer

Aktuell seien Roboter in Europa sehr sicher, "weil man konservativ und verantwortungsvoll an das Thema Robotik herangeht". Techniker, die diesen Zugang wählten, würden allerdings mitunter als Verhinderer kritisiert, so Hofbaur weiter. "Verglichen damit, wie gefährlich diese Maschinen sein können, passiert sehr wenig bis nichts."

Nutzung wird noch stark zunehmen

Im Zentrum seiner Arbeit stehe die Abschätzung von Risiken – vor allem jener Roboter, die direkt beim Menschen arbeiten. Deren Nutzung werde noch stark zunehmen, zumal Roboter häufig Kosten einsparen. Für Robotik gebe es ganz klare Regeln, was erlaubt sei. "Wenn man ungeplant mit einem Roboter in Berührung kommt, muss das der Roboter schnell genug registrieren, um zu verhindern, dass er einem wehtut." Denn die Richtlinien seien eindeutig und klar: "Eine Maschine darf niemals einen Menschen gefährden."

"Haben keine Kontrolle mehr"

Anders sei es mit der KI: "Ich habe nie verstanden, warum das Bild des bösen Buben immer mit dem Roboter identifiziert wurde, aber nie mit dem Mobiltelefon, das uns über Daten lenkt und beeinflusst. Da steckt ganz viel an KI und Datenmethodik dahinter", so Hofbaur. "Haben wir noch die Kontrolle über das Betriebssystem unserer Computer, die wir verwenden? Nein. Wir haben in Europa keine Datenhoheit. Und dieses Problem wird mit der Künstlichen Intelligenz noch größer", warnt der Wissenschaftler.