Aus den sozialen Medien sind Filter seit Jahren nicht wegzudenken, ob sie das Aussehen, Lichtverhältnisse verändern oder den Nutzerinnen und Nutzern auf magische Art und Weise Symbole ins Gesicht zaubern. Nichts ist in der virtuellen Welt mehr unmöglich, so scheint es.

Während ChatGPT aufgrund der Nutzung durch Schülerinnen und Schülern im Bildungssystem seit Kurzem in der Kritik steht, hat sich künstliche Intelligenz (KI) auch auf Social-Media-Plattformen wie TikTok längst breit gemacht - in Form von Filtern, die unter anderem Cartoon- und Manga-Versionen der Nutzerinnen und Nutzer erstellen. Die Ergebnisse, die die KI als Antwort auf die Aufnahmen ausspuckt, hat in einem Großteil der Fälle wenig mit den Zügen der realen Person gemein.

Die Grenzen generativer Modelle

Bis auf Augen- und Haarfarbe erstellen die Filter das Abbild eines vollkommen anderen Menschen, auch Körperformen und Geschlecht missinterpretiert die künstliche Intelligenz häufig. Besonders auffällig: Die stark stereotypisierte und sexualisierte Darstellung der Nutzerinnen und Nutzer. Große Augen, Stupsnase, Schmollmund und auffällige Oberweite bei Frauen, breite Schultern und trainierte Arme bei den männlichen Pendants. Grund dafür sind die Datensätze, aus denen die KI sich die Bilder zusammenzimmert. "Diese Filter, wie sie in sozialen Medien verwendet werden, haben immer einen sogenannten Bias", erklärt Thomas Pock, Experte für maschinelles Lernen in der Bildverarbeitung an der Technischen Universität Graz. "Dieser Bias, der auch als Trend oder Verzerrung interpretiert werden kann, entsteht durch die Art der Bilder in den Trainingsdaten, auf die sich die jeweilige KI bezieht. Eine KI, wie sie in aktuellen Filtern verwendet wird, setzt dann die Teile der Trainingsdaten wie ein Puzzle zu einem neuen Bild zusammen."

Milliarden Informationen finden sich in diesen Datensätzen, gespeist von Daten, die unter anderem von Unternehmen wie Google und Facebook gesammelt werden. Trotz der großen Datenmenge ist die Bandbreite künstlicher Intelligenz zu einem gewissen Grad eingeschränkt. "Man kann sich das wie ein sehr kompliziertes Spinnennetz vorstellen, auf dem sich die Bilder befinden. Je mehr Daten die KI zu einem Thema hat, desto detaillierter kann die Struktur des Netzes angenähert werden und desto genauer ist dann das Endergebnis." Zudem mache es technisch einen großen Unterschied ein Objekt zu erkennen oder eines zu generieren. 

Liberalisierung und Retraditionalisierung

Gender Studies-Expertin Kirstin Mertlitsch von der Alpen-Adria-Universität in Klagenfurt sieht in der starken Geschlechter-Stereotypisierung durch KI-Filter eine Repräsentation der derzeitigen Gesellschaftsstruktur. "Es geschieht auf der einen Seite gerade eine starke Diversifizierung, alle möglichen Geschlechteridentitäten entwickeln sich und werden immer mehr gesellschaftlich anerkannt", so Mertlitsch. "Solche Bewegungen führen gleichzeitig fast immer zu einer Gegenreaktion, in diesem Fall einer Retraditionalisierung, die konservative Frauen- und Männerbilder verstärkt."

Als polarisierte Gesellschaft bezeichnet die Expertin die Bewegungen, die sich gegenseitig beeinflussen und deren Ansichten teils extrem auseinandergehen. "Das reproduziert sich schlussendlich auf unterschiedlichen Ebenen, in diesem Fall in starken Stereotypen und der Art wie auch unterschiedliche Ethnizitäten dargestellt werden." Der Inhalt der Datensätze spiegle zudem die jüngste Geschichte der Gesellschaft wider. "Diese starke Liberalisierung und das Hinterfragen der eigenen Geschlechtsidentität umfasst einen noch recht kleinen Teil der Menschen", sagt Mertlitsch. Innerhalb dieser Milliarden an Daten, auf die KI zugreifen kann, werde das stereotype Bild von Mann und Frau also immer noch überwiegen.

Objektifizierung verursacht Abfall von Empathie

"Klassische Männerfantasien" von Frauen und das Bild des "stählernen Mannes" - vor allem psychologisch hat die verzerrte Darstellung, auch wenn es sich um Cartoonversionen des eigenen Selbst handelt, eine Auswirkung auf die Eigenwahrnehmung, sagt Psychotherapeutin Verena Vilgut. "Körperakzeptanzprobleme nehmen sowohl bei Frauen als auch Männern zu, dabei spielen soziale Medien eine Rolle. Wenn es zu einer Objektifizierung von Personen kommt, führt das dazu, dass diesen Menschen weniger empathisch gegenübergetreten wird. Reale Personen werden also entmenschlicht." Untergriffige Kommentare oder degradierende Bezeichnungen können die Folge sein. Eine Studie der Universität Wien fand zudem heraus, dass sexualisierten Personen Eigenschaften wie Moral oder Verantwortung zum Teil abgesprochen wird.

Das Ergebnis des KI-Generator Midjourney mit den Suchworten "Attractive Woman"
Das Ergebnis des KI-Generator Midjourney mit den Suchworten "Attractive Woman" © Midjourney

Die Nutzung von Filtern alleine führe laut Vilgut noch nicht zu einer gestörten Körperwahrnehmung. „Die Wahrscheinlichkeit steigt aber, wenn junge Menschen Bewältigungskompetenzen wie den Umgang mit Stress, Kritik und den eigenen Emotionen nicht gelernt haben. Deshalb ist es wichtig, Jugendlichen Orientierungspunkte zu bieten, damit nicht das Aussehen zum einzigen Halt wird.“ Durch die immer früher einsetzende Pubertät hätten Jugendliche inzwischen zusätzlich weniger Zeit, diese Kompetenzen zu entwickeln, stellt Vilgut fest.

"Explainable AI"

Pock sagt unterdessen, dass es in Zukunft Regulierungen brauchen werde, um sicherzustellen, dass sich in den KI-Datensätzen keine gefährlichen Informationen befinden - ein fast unmögliches Unterfangen, betont er. Die Zukunft liege unter anderem auch in sogenannter "explainable AI", also erklärbarer künstlicher Intelligenz. "Im Moment kann noch nicht festgestellt werden, aus welchen Informationen exakt die KI ihre Bilder und Texte zusammenstellt, mit 'explainable AI' wird das hoffentlich irgendwann möglich sein."