Der Facebook-Konzern Meta hat ein gefälschtes Video identifiziert und entfernt, in dem der ukrainische Präsident Wolodymyr Selenskyj angeblich seine Soldaten auffordert, die Waffen niederzulegen. Selenskyj habe die Erklärung aber nie abgegeben, sagte Meta-Sicherheitschef Nathaniel Gleicher auf Twitter. "Wir haben dieses Video schnell überprüft und entfernt, da es gegen unsere Richtlinie gegen irreführende, manipulierte Medien verstößt."

Außerdem habe man die Kollegen auf anderen Internet-Plattformen über die Fälschung informiert. Das gefälschte Material erschien am Mittwoch zunächst auf der Website der Nachrichtenwebsite Ukraine 24, nachdem diese angeblich von Hackern angegriffen wurde. Danach verbreitete sich das Deepfake-Video rasch im Internet und auch in den Meta-Diensten Facebook und Instagram.

Ein Deepfake-Video ist ein mithilfe künstlicher Intelligenz erstelltes Video, das authentisch wirken soll, es aber nicht ist. Der Künstliche-Intelligenz-Einsatz sorgt dafür, dass die Stimme echt klingt und gesprochene Sprache und Mimik zueinanderpassen.

Die ukrainische Regierung hatte bereits vor zwei Wochen auf Facebook davor gewarnt, dass der russische Präsident Wladimir Putin die Deepfake-Technologie bei seinen Versuchen einsetzen werde, die Regierung Selenskyj zu stürzen. "Sein Ziel ist es, die Bürger zu verwirren, Panik zu verbreiten und unsere Truppen zum Rückzug zu bewegen", schrieb die Regierungsbehörde.

Zuvor war bereits ein gefälschtes Video aufgetaucht, in dem Putin eine Kapitulationsankündigung in den Mund gelegt wird. "Russischer Soldat, lass deine Waffen fallen und geh nach Hause, solange du lebst!", hieß es in dem Deepfake-Video.