Wem kann man noch trauen – den eigenen Ohren, den eigenen Augen oder gar niemandem? Neben den vielen Möglichkeiten, die Künstliche Intelligenz (KI) bietet, öffnet sie auch Tür und Tor für verschiedene Betrugsmaschen. Durch „Voice Cloning“ – das künstliche Kopieren der Stimme durch KI – wird die Rückverfolgung von Anrufen und Nachrichten immer schwieriger.

Anlagebetrug durch Voice Cloning nimmt zu

Mehrere zehn Sekunden lange Tonaufnahmen von Personen reichen aus, um ihnen die Stimme zu „stehlen“, erklärt Thorsten Behrens von „Watchlist Internet“. Tools dafür gebe es bereits unzählige, etwa zehn seien aber schon beunruhigend gut, meint der Experte. Die KI nutzt die Klangmuster der Stimme, um sie nachzubilden. Ist die Stimme erst einmal geklont, kann man sie mit einem Textprogramm sagen lassen, was man will.

Betrügereien mit „Voice Cloning“ boomen derzeit vor allem in Form von Anlagebetrug. „Es werden Webseiten von Nachrichtenmedien nachgebildet, auf denen Prominente zu Investitionen in dubiose Finanzgeschäfte aufrufen“, sagt Behrens. In Österreich sind vor allem Armin Assinger, Mirjam Weichselbraun, Alexander Van der Bellen und Karl Nehammer ins Visier der Kriminellen geraten. Ihre Stimmen werden laut Behrens immer öfter missbraucht, um Betrügereien zu starten.

Dialekt als Schutz vor KI-Betrug

Doch auch die KI stößt noch an ihre Grenzen. „In Österreich ist das Voice Cloning tatsächlich schwieriger, weil die KI Probleme hat, Assingers Kärntner Akzent oder andere Dialekte zu reproduzieren“, sagt Behrens. Im englischsprachigen Raum oder auch in Deutschland sei das Problem daher schon größer.

Man dürfe sich aber nicht darauf verlassen, dass die KI am österreichischen Dialekt scheitert. „Diese Modelle lernen ständig dazu, werden immer besser und genauer“, sagt Behrens. So ist es nur eine Frage der Zeit, bis das Phänomen auch in den privaten Bereich überschwappt und den Enkeltrick auf eine andere Ebene hebt. Wenn die KI so weit ist, dass sie Live-Gespräche führen kann, wird es schwierig.

„Dann kann man sich nur noch bewusst machen, dass es so etwas wie ´Voice Cloning´ gibt“, sagt Behrens. Die Ermittlungsbehörden haben das Thema auf dem Radar und sind sensibilisiert. Privatpersonen empfiehlt Behrens, Sicherheitsfragen, die man von Webseiten kennt, auch in Telefongespräche einzubauen. Denn: Wissen kann die KI nicht stehlen.