Betrüger nutzten künstliche Intelligenz, um die Stimme von Andreas Gabalier zu imitieren.
Sie fälschten ein angebliches Interview, in dem der Sänger angeblich Krypto-Investments empfiehlt.
Die Täter veröffentlichten den gefälschten Inhalt auf einer Website, die stark an orf.at erinnert.
Die „Kleine Zeitung“ deckte den Vorfall auf und informierte über den massiven Identitätsmissbrauch.
KI-Betrug mit Promi-Stimmen nimmt zu
Voice Cloning breitet sich als Betrugsmethode rasant aus.
Die Kriminellen imitieren Stimmen bekannter Personen, um betrügerische Inhalte glaubwürdig zu machen.
Sie lassen Promis in Videos oder Audioaufnahmen vermeintlich zu dubiosen Geldanlagen raten.
Oft nutzen Täter Stimmen von Alexander Van der Bellen, Armin Assinger oder Mirjam Weichselbraun.
Warnung vor Fake-Websites und Finanzfallen
Die gefälschten Inhalte erscheinen häufig auf Webseiten, die echten Medienportalen stark ähneln.
So wollen Betrüger Vertrauen schaffen und Menschen zu riskanten Investitionen verleiten.
Behörden rufen dazu auf, Inhalte kritisch zu prüfen und sich nicht auf prominente „Empfehlungen“ zu verlassen.
Experten fordern strengere Regeln für KI-Einsatz und besseren Schutz gegen digitale Täuschung.