WAHR ODER FALSCH. Künstliche Intelligenz macht CEO-Betrug noch glaubwürdiger.

Dieser Betrug, der seit etwa fünfzehn Jahren existiert, wird durch KI verstärkt.
/2024/03/04/thomas-pontillon-65e605eb41ae1938813047.png)
Dieser CEO-Betrug ist eine etablierte Methode. Dabei kontaktiert ein Mitarbeiter – oft per E-Mail – einen Buchhalter des Unternehmens und gibt sich als dessen Chef aus. Dieser fordert eine dringende Banküberweisung an. Der Mitarbeiter wird unter Druck gesetzt und überweist einen hohen Geldbetrag, ohne zu wissen, dass dieser auf ein Konto im Ausland geht.
Dieser seit über fünfzehn Jahren laufende CEO-Betrug ist der Polizei mittlerweile bestens bekannt. In Frankreich gab es im Jahr 2023 über 600 Fälle dieser Art, bei denen fast 50 Millionen Euro veruntreut wurden . Dies entspricht einem durchschnittlichen Schaden von 75.000 Euro.
Bisher wurden diese Betrügereien oft per E-Mail durchgeführt, doch dank künstlicher Intelligenz ist ein Telefonanruf heute noch glaubwürdiger. Es ist sehr einfach geworden, die Stimme einer Person zu klonen. Alles, was man braucht, ist eine Audioaufnahme. Der betroffene Mitarbeiter kann dann leicht glauben, dass er tatsächlich mit seinem Chef spricht.
Es gab bereits einige aktuelle Fälle. So wurde beispielsweise in Italien Anfang des Jahres die Stimme des Verteidigungsministers geklont. Mehrere Industrielle wurden von diesem falschen Minister kontaktiert und um Geld gebeten. Einer von ihnen fiel darauf herein und überwies eine Million Euro.
Mithilfe künstlicher Intelligenz geht dieser CEO-Betrug sogar noch weiter; er kann sogar per Video durchgeführt werden. Dies geschah einem Mitarbeiter eines Unternehmens in Hongkong. Er wurde zu einer Videokonferenz eingeladen, an der er unwissentlich der einzige menschliche Teilnehmer war. Der Finanzvorstand und andere Unternehmensvertreter waren in Wirklichkeit Deepfakes, manipulierte Bilder. Doch der Mitarbeiter glaubte es und überwies über 20 Millionen Euro.
Sich vollständig vor CEO-Betrug zu schützen, ist schwierig, insbesondere bei einer geklonten Stimme, die mit dem Gehör kaum zu erkennen ist. Das Wirtschaftsministerium gibt Unternehmen dennoch einige Empfehlungen. Erstens, indem man die Mitarbeiter für diese Bedrohung sensibilisiert.
Sie sind oft diejenigen, die CEO-Betrug vereiteln können, indem sie beispielsweise eine sehr spezifische oder persönliche Frage stellen, auf die künstliche Intelligenz keine Antwort finden kann. Oder indem sie die Person kontaktieren, die gerade angerufen hat, um sicherzustellen, dass sie tatsächlich am anderen Ende der Leitung ist.
Francetvinfo