"Inakzeptabler Fehler"Facebook-Algorithmus verwechselte schwarze Menschen mit Affen

Eine Gesichtserkennungssoftware von Facebook empfahl bei einem Video mit dem Titel "Weißer Mann ruft Polizei wegen schwarzen Männern am Hafen" weitere Videos mit "Primaten". Sprecherin sprach von einem "eindeutig inakzeptablen Fehler".

×
Artikel gemerkt

Gemerkte Artikel können Sie jederzeit in Ihrer Leseliste abrufen. Zu Ihrer Leseliste gelangen Sie direkt über die Seiten-Navigation.

Zur Leseliste
© AP/Matt Rourke
 

Ein Algorithmus von Facebook hat schwarze Menschen mit Affen verwechselt. Eine Sprecherin des Unternehmens bestätigte am Freitag das Problem, das bei einem Video des britischen Boulevard-Blatts "Daily Mail" aufgetreten war. Facebook-Nutzer, die sich das Video mit dem Titel "Weißer Mann ruft Polizei wegen schwarzen Männern am Hafen" angesehen hatten, wurden anschließend gefragt, ob sie "weiterhin Videos über Primaten sehen möchten", wie die "New York Times" berichtete.

Software vom Netz genommen

Die Sprecherin sprach von einem "eindeutig inakzeptablen Fehler". Die verantwortliche Software sei sofort vom Netz genommen worden. "Wir entschuldigen uns bei jedem, der diese beleidigenden Empfehlungen gesehen hat".

Facebook setzt auf verschiedene Formen von künstlicher Intelligenz, um die den Nutzern angezeigten Inhalte zu personalisieren. Dabei kommt auch Gesichtserkennungssoftware zum Einsatz. Bürgerrechtlern weisen jedoch schon länger auf Probleme mit der Genauigkeit hin. Künstliche Intelligenz kommt bei Facebook auch bei der Moderation von Inhalten zum Einsatz, etwa um problematische Nachrichten und Bilder zu erkennen und zu blockieren.

Diskutieren Sie mit - posten Sie als Erste(r) Ihre Meinung!