Bitte warten - Ihr Zugang wird eingerichtet.

AnalyseKünstliche Intelligenz: Der rechtsfreie Raum hat ein Ende

Die EU will Gesetze für die Entwicklung von Künstlicher Intelligenz entwickeln. Eine Gratwanderungen zwischen Technikfeindlichkeit und notwendigen Rahmenbedingungen.

×
Artikel gemerkt

Gemerkte Artikel können Sie jederzeit in Ihrer Leseliste abrufen. Zu Ihrer Leseliste gelangen Sie direkt über die Seiten-Navigation.

Zur Leseliste
Künstliche Intelligenz ist nicht fehlerfrei. Deshalb wird an strengen Regeln gearbeitet
Künstliche Intelligenz ist nicht fehlerfrei. Deshalb wird an strengen Regeln gearbeitet © (c) imago images/CHROMORANGE (CHROMORANGE / Knut Niehus via www.imago-images.de)
 

Die Geschichten des Prager Golem oder Goethes Zauberlehrling zeigen: Die Idee, unbelebten Dingen einen Geist einzuhauchen, fasziniert die Menschen seit Jahrhunderten. Und so ist es nur allzu verständlich, dass die Wortkombination "künstliche Intelligenz" die Fantasie unzähliger Programmierer und Start-up-Gründer beflügelt.

Zwischen 0 Uhr und 6 Uhr ist das Erstellen von Kommentaren nicht möglich.
Danke für Ihr Verständnis.

scionescio
2
7
Lesenswert?

„ Es muss klar sein, mit welchen Daten die KI trainiert wurde, die Ergebnisse dürfen nicht diskriminierend sein und müssen auch nachvollziehbar sein." Schwaiger zieht auch eine klare Grenze. "Eine KI kann Informationen sammeln und den Sachbearbeiter unterstützen, sie wird aber nie autonome Entscheidungen treffen. Diese Verantwortung bleibt immer in Menschenhand."

Da liegt auch schon eines der Hauptprobleme: Assisted Learning (das Training von KI Systemen mit ausgewählten und validierten Daten) ist sehr aufwändig und dadurch kostspielig- viele Firmen gehen den umgekehrten Weg.

Tesla verwendet die ungeprüften Daten aller Teslafahrer und trainiert damit den Autopilot.

Das Problem dabei: wenn genug Fahrer in einer bestimmten Situation den gleichen Fehler machen, wird das zur neuen Regel und keiner kriegt das überhaupt mit - und als Folge sterben regelmäßig Menschen, weil sie sich in ihrer naiven Technikgläubigkeit darauf verlassen haben.

Ein sehr bekanntes Beispiel: ein KI Programm hatte eine außergewöhnlich gute Trefferquote beim Erkennen von Pferden auf Tierphotos - irgendwann wurden Heatmaps eingeführt (auf dem Photo wurde markiert, welche Merkmale verantwortlich waren, dass es als Pferd und zB nicht als Esel erkannt wurde) und es stellte sich heraus, dass alle Pferdefotos von einer Agentur gekauft wurden und das Programm als einziges Merkmal den Copyright Vermerk der Agentur als Unterscheidungsmerkmal genutzt hatte dh bei anderen Photos ohne Vermerk hat das System dann vollkommen versagt (nur ist es bis zur Einführung der Heatmaps niemanden aufgefallen und niemand hat die Ergebnisse hinterfragt, weil die Trefferquote beim ausgewählten Material so toll war und niemand das Trainingsmaterial hinterfragt hat)!

nasowasaberauch
2
5
Lesenswert?

Das mit den Pferden klingt nach einem Gschichtl

Im Realeinsatz wäre das sofort aufgefallen. Das klingt eher nach einem Entwicklungs Hickup, der dann sofort ausgebügelt wurde und dann bei Product Release als lustige Geschichte erzählt wurde.

Ich kenn die Geschichte mit der KI die Panzer in Bildern finden sollte. Hat mit dem Testmaterial super funktioniert, im Einsatz dann absolut nicht. Hat sich auch herausgestellt, dass die Trainingsbilder mit Panzer alle bei Schönwetter waren. Sie haben eine super Wetteranalyse KI entwickelt. Vielleicht stimmt die Geschichte, vielleicht auch nicht.

Ihre Tesla Geschichte klingt da schon glaubwürdiger. Wenn ich mir ansehe, wie viele Autofahrer z.B. über das Reisverschlussprinzip vor Autobahnbaustellen Bescheid wissen, schwant mir fürchterliches. Da kommen wirklich lustige Autonome Zeiten auf uns zu. Letzten Sommer wollte mich ein Kleinbusfahrer sogar rammen, weil ich mich erdreistet hab STVO konform am 3 Kilometerlangen Stau vor der Baustelle vorbei zu fahren. Wenn das dann ein KI übernimmt, die aus Schmerzen auch nicht lernt...

scionescio
3
2
Lesenswert?

@nasowasaberauch: einfaches Googlen hätte genügt…

… bevor man seine überhebliche Ahnungslosigkeit öffentlich demonstriert …

Such einfach nach „ Wie sich KI-Entscheidungen überprüfen lassen“ und „Heise“

nasowasaberauch
0
0
Lesenswert?

@scionescio: Sie sind irgendwer aus dem Internet

Und erwarten dass ich ihnen bedingungslos alles glaube was sie behaupten, ohne Quellen zu liefern?

Sorry. So läuft das nicht. Sie können nicht erwarten, dass alle die Ihren Beitrag lesen, los rennen und googeln. Da müssen sie schon selber liefern.

Es klang nur echt unglaubwürdig, das das keiner getestet hat, bevor es in Produktion ging. Und Bilder mit Wasserzeichen im Live Betrieb? Echt jetzt? Also seien sie nicht gleich beleidigt.

Meine Geschichte kann ich leider nicht zitieren. War ein Vortragender im meinem Studium vor 20 Jahren der die Anekdote in seiner Vorlesung gebracht hat.

Falls sie das Reißverschluss-Prinzip meinen, das erzählt ihnen jeder Fahrlehrer oder auch die stvo. Auch der ÖAMTC informiert gerne.

Ansonsten bin ich jetzt raus.