KI-ZertifikatDamit man der Künstlichen Intelligenz vertrauen kann

In Graz will eine Gruppe rund um das Know-Center Kriterien festlegen, die dabei helfen festzustellen, ob ein Algorithmus für künstliche Intelligenz wirklich vertrauenswürdig ist.

×
Artikel gemerkt

Gemerkte Artikel können Sie jederzeit in Ihrer Leseliste abrufen. Zu Ihrer Leseliste gelangen Sie direkt über die Seiten-Navigation.

Zur Leseliste
Bereits in den 1940er-Jahren erfand der Autor Isaak Asimov die Robotergesetze
Bereits in den 1940er-Jahren erfand der Autor Isaak Asimov die Robotergesetze © Tatiana Shepeleva - stock.adobe.
 

Schon in den 1940er Jahren hat sich der Science-Fiction-Autor Isaak Asimov der Frage gestellt, wie das Zusammenleben von Menschen und Künstlicher Intelligenz (KI) funktionieren kann und 1942 die drei "Robotergesetze" postuliert. Vor 80 Jahren war das jedoch höchstens eine Fantasterei. Heute jedoch greifen Machine Learing und KI-Algorithmen immer stärker ins alltägliche Leben ein.

Politisch arbeite die EU deshalb bereits an einheitlichen Regeln für eine "vertrauenswürdige KI". Passend dazu will nun das Know-Center Graz eine Trusted-AI-Zertifikat entwickeln. Das Tochterunternehmen der TU Graz hat sich dazu mit dem Prüfkonzern SGS, dem IT-Sicherheitszentrum A-Sit und der Uni Graz zusammengetan.

KI mit Vorurteilen

Dahinter steht die Überzeugung, dass KI-Anwendungen in der Bevölkerung nur dann akzeptiert werden, wenn sie sicher sind, eben vertrauenswürdig. "KI erfordert neben viel Know-how auch Verantwortung", erklärt Know-Center-Geschäftsführerin Stefanie Lindstaedt. Denn KI könne auch negative Auswirkungen haben, wenn diese nicht gut entwickelt wurde.

So brauche man beim Training einer KI eine große Menge an Daten. Diese müssten aber sehr ausgewogen sein, erklärt Lindstaedt. Ist das nicht der Fall, kann die KI regelrechte Vorurteile entwickeln. Diese Daten müsste wiederum gut anonymisiert sein. Anhand des Verhaltens der KI dürften keine Rückschlüsse auf die Daten möglich sein, erklärt die Universitätsprofessorin.

Keine Standards

"Derzeit gibt es gar keine Standards und Normen bei der Entwicklung von KI-Systemen", sagt Lindstaedt. Es gäbe auch keine Tests, mit denen man feststellen könnte, ob eine KI vertrauenswürdig ist. Hier wollen das Know-Center und deren Partner nun neue Kriterien definieren. "Dafür brauchen wir einen 360-Grad-Rundumblick. Neben Daten, Algorithmen oder Cybersicherheit geht es daher auch um Fragen der Ethik und des Rechts."

Abseits der Arbeit an diesen neuen Standards und Messverfahren will das Know-Center auch Unternehmen bei der Entwicklung von KI-Produkten beraten. Die Firmen Estag, NXP, Redway und Leftshift One liefern dafür erste mögliche Anwendungsfälle. "Wir wollen die Hemmschwelle für Unternehmen senken, sich mit dem Thema KI zu beschäftigen", sagt Lindstaedt.

Baustein der Digitalisierung

Auch Wirtschaftslandesrätin Barbara Eibinger-Miedl sieht künstliche Intelligenz als zentralen Baustein in der Digitalisierung. "Hier gibt es ein großes Potenzial für weitere Wertschöpfung in der Wirtschaft." Allerdings bestehe in der Bevölkerung eine gewisse Skepsis. "Man muss sich auch fragen: Ist wirklich alles, was möglich ist, auch erwünscht." Eibinger-Miedl sieht hier Europa in der Vorreiterrolle. "Nur die EU beschäftigt sich mit einer vertrauenswürdige KI. Asien und die USA kümmern sich nicht darum."

Eine besondere Herausforderung beim Prüfen von KI-Algorithmen sei die Fähigkeit sich laufend weiterzuentwickeln, erklärt Martin Schaffer Cybersecurity-Experte des Prüfkonzerns SGS. "Eine künstliche Intelligenz ist sozusagen immer in Bewegung. Das macht sie Anfällig für Angriffe, einerseits auf den Algorithmus selbst, andererseits auf die Datenbasis. Das auf Sicherheit zu prüfen ist sehr komplex." 

LR Eibinger-Miedl, Prof. Lindstaedt, Martin Schaffer SGS, TU-Rektor Kainz und Prof. Thalmann
LR Eibinger-Miedl, Prof. Lindstaedt, Martin Schaffer SGS, TU-Rektor Kainz und Prof. Thalmann Foto © Know-Center

Doch eben diese Sicherheit ist für TU-Rektor Harald Kainz zentral. Daher sei  jetzt die richtige Zeit für Zertifikate für KI-Anwendungen. Vom autonomen Fahren bis zur smarten Produktion würden inzwischen die Anwendungen reichen. Gerade die TU Graz könne hier in den Bereichen Cybersecurity und Kryptografie ihren Beitrag leisten.

Ethische Fragen

Neben den Fragen der Programmierung und der Cybersicherheit gibt es jedoch auch gesellschaftliche Themenstellungen bei der Entwicklung solcher Algorithmen. Die Kompetenz für ethische und rechtliche Fragen bringt daher die Universität Graz ein, erklärt Stefan Thalmann, Leiter Business Analytics and Data Science Center der Uni Graz. "Schon heute können KI-Systeme teilweise nicht eingesetzt werden, weil diese Zertifizierungen fehlen." Er sieht in der neue Initiative einen Weg, damit KI für positive Entwicklungen wie beispielsweise für mehr Chancengleichheit sorgen kann.

Herbert Leitold, Generalsekretär A-SIT begrüßt in der vielfältigen Kompetenzen der Partner: "Durch die Bündelung unterschiedlicher Expertisen können die komplexen Herausforderungen einer KI-Zertifizierung gut gemeistert werden."

Zwischen 0 Uhr und 6 Uhr ist das Erstellen von Kommentaren nicht möglich.
Danke für Ihr Verständnis.