Zürich
KI wird bei negativen Emotionen rassistisch oder sexistisch
Belastende Informationen können auch bei Künstlicher Intelligenz (KI) zu Stress und Ängstlichkeit führen. Wird ChatGPT mit negativen Emotionen konfrontiert, verhält es sich im Anschluss rassistischer oder sexistischer. Wie Schweizer Forschende in einer neuen Studie zeigen, lässt sich zumindest das KI-Modell GPT-4 aber mit Achtsamkeitsübungen wieder beruhigen.
© APA/AFP