Fünf verifizierte Vorfälle, die beweisen, dass kein Eckbüro vor KI-Imitationen sicher ist.
Fallstudie 1: Die $25M Arup-Katastrophe
Unternehmen: Arup (Globales Ingenieurbüro für das Opernhaus in Sydney)
Verlust: $25,6 Millionen
Methode: Videokonferenz für mehrere Personen mit dem deepfaked CFO und seinen Mitarbeitern
Datum: Anfang 2024
Sicherheitsexperten bezeichnen dies als einen der raffiniertesten Deepfake-Angriffe auf Unternehmen, die es je gegeben hat. In Hongkong nahm ein Mitarbeiter von Arup an einem scheinbar routinemäßigen Videogespräch mit dem Finanzvorstand des Unternehmens in Großbritannien und anderen Kollegen teil. Das Treffen schien legitim zu sein; die Teilnehmer sahen genauso aus und hörten sich genauso an wie die echten Führungskräfte.
Während des Anrufs wurde der Angestellte angewiesen, 15 verschiedene Transaktionen in Höhe von insgesamt $200 Millionen HK auf fünf verschiedenen Bankkonten durchzuführen.
Machen Sie sich nie wieder Sorgen über KI-Betrug. TruthScan Kann Ihnen helfen:
- Erkennen Sie AI-generierte Bilder, Text, Sprache und Video.
- Vermeiden Sie KI-gesteuerter Betrug in großem Umfang.
- Schützen Sie Ihre wichtigsten empfindlich Unternehmensvermögen.
Erst nach Rücksprache mit der Unternehmenszentrale stellte der Mitarbeiter fest, dass jede Person in diesem Videoanruf ein von der KI generierter Deepfake war.
Es handelte sich nicht um einen einfachen Stimmenklon oder ein statisches Bild. Die Betrüger hatten ein interaktives Echtzeit-Video von mehreren Führungskräften gleichzeitig erstellt und damit ein Maß an Komplexität geschaffen, das eine neue Entwicklung in der Internetkriminalität von Unternehmen darstellt.
"Wie viele andere Unternehmen rund um den Globus sind auch wir regelmäßigen Angriffen ausgesetzt, darunter Rechnungsbetrug, Phishing-Betrug, WhatsApp-Spoofing und Deepfakes. Wir haben festgestellt, dass die Anzahl und die Raffinesse dieser Angriffe in den letzten Monaten stark zugenommen haben". Rob Greig, Arup CIO
Fallstudie 2: Die $40-Millionen-Frage von Ferrari
Unternehmen: Ferrari
Ziel: CEO Benedetto Vigna
Versuchter Verlust: Unbekannt (Gerüchte gehen in die Millionen)
Methode: Deepfake AI-Stimme mit süditalienischem Akzent
Datum: Juli 2024
Das Ergebnis: Verhindert
Führungskräfte von Ferrari erhielten über WhatsApp Nachrichten, die von ihrem CEO Benedetto Vigna zu stammen schienen, zusammen mit seinem Profilfoto und dem Branding des Unternehmens. Die Nachrichten sprachen von einer bevorstehenden großen Übernahme und drängten auf die sofortige Weitergabe vertraulicher Finanzinformationen. In einem Folgeanruf kopierte der Deepfake sogar den süditalienischen Akzent von Vigna.
Glücklicherweise wurde eine Führungskraft misstrauisch und stellte eine einfache Frage: "Wie lautete der Titel des Buches, das Sie mir letzte Woche empfohlen haben?" Als die KI keine Antwort geben konnte, fiel der Schwindel auf.
Manchmal kann die ausgefeilteste Technologie durch die einfachsten menschlichen Protokolle überwunden werden. Ferraris knappe Entscheidung zeigt sowohl die Qualität moderner Deepfakes als auch die Leistungsfähigkeit persönlicher Überprüfungsmethoden.
Fallstudie 3: Die Microsoft-Teams-Falle bei WPP
Unternehmen: WPP (weltgrößter Werbekonzern)
Ziel: CEO Mark Read
Methode: WhatsApp-Konto + Teamsitzung mit Sprachklon und YouTube-Material
Datum: Mai 2024
Das Ergebnis: Verhindert
Die Cyberkriminellen richteten ein gefälschtes WhatsApp-Konto mit öffentlich zugänglichen Fotos von Mark Read, dem CEO von WPP, ein. Anschließend nutzten sie dieses Material, um über das Konto ein Microsoft-Teams-Meeting mit einem anderen leitenden Angestellten zu vereinbaren und ihn um Zugang zu sofortigen Finanzmitteln und persönlichen Informationen für ein "neues Unternehmen" zu bitten.
Während des Videoanrufs nutzten die Betrüger eine Kombination aus Stimmenklontechnik und aufgezeichnetem YouTube-Material, um sich als Read auszugeben.
Die Antwort von CEO Mark Read: "Glücklicherweise waren die Angreifer nicht erfolgreich. Wir alle müssen auf die Techniken achten, die über E-Mails hinausgehen und virtuelle Treffen, KI und Deepfakes ausnutzen.
Der Fall WPP zeigt, dass Führungskräfte mit einer großen Medienpräsenz noch anfälliger sind. Die große Menge an öffentlichen Fotos und Videos von ihnen bietet Kriminellen das perfekte Material für die Erstellung von Fälschungen.
Fallstudie 4: Das Binance-"KI-Hologramm"-Schema
Unternehmen: Binance (weltweit größte Plattform für Kryptowährungen)
Ziel: Patrick Hillmann, Leiter der Abteilung Kommunikation
Methode: Videokonferenz "Hologramm" unter Verwendung von TV-Interview-Material
Datum: 2022 (früher Hauptfall)
Das Ergebnis: Mehrere Krypto-Projekte betrogen
Raffinierte Hacker bauten ein "KI-Hologramm", wie Hillmann es nannte, unter Verwendung von Ausschnitten aus seinen Fernseh- und Nachrichtenauftritten. Der Deepfake war so überzeugend, dass er mehrere Krypto-Vertreter bei Zoom-Anrufen erfolgreich täuschte.
Die Kriminellen nutzten diese Technologie, um sich bei Projektbesprechungen, die Binance-Listings zum Ziel hatten, als Hillmann auszugeben. Diese sind eine der wertvollsten Unterstützungen in der Kryptoindustrie.
Laut Hillmann, "...abgesehen davon, dass die 15 Pfund, die ich während der COVID zugenommen habe, nicht spürbar waren, war diese tiefe Fälschung raffiniert genug, um mehrere hochintelligente Mitglieder der Krypto-Community zu täuschen."
Der Binance-Fall war ein frühes Warnsignal dafür, dass Kriminelle nicht mehr nur einfache Stimmenklone sind, sondern auch ausgeklügelte Video-Imitationen, die auf bestimmte Geschäftsprozesse abzielen.
Fallstudie 5: Der interne Weckruf von LastPass
Unternehmen: LastPass (Cybersicherheit/Passwortverwaltung)
Ziel: CEO des Unternehmens
Methode: WhatsApp-Anrufe, SMS und Nachahmung von Sprachnachrichten
Datum: Anfang 2024
Das Ergebnis: Verhindert
Deepfake-Betrüger hatten es über WhatsApp auf LastPass abgesehen (sie riefen an, schrieben SMS und hinterließen Sprachnachrichten) und gaben sich dabei überzeugend als CEO des Unternehmens aus.
Der Mitarbeiter, der zur Zielscheibe wurde, bemerkte mehrere Warnsignale:
- Die Kommunikation erfolgte außerhalb der normalen Geschäftszeiten;
- Die Anfrage war von ungewöhnlicher Dringlichkeit (eine übliche Betrugstaktik);
- Der Kanal und die Vorgehensweise wichen von den üblichen Kommunikationsprotokollen des Unternehmens ab.
Wenn Cybersecurity-Fachleute erfolgreich angegriffen werden können, muss jedes Unternehmen davon ausgehen, dass sie angreifbar sind.
Das Muster hinter den Fällen
Die Analyse dieser verifizierten Vorfälle zeigt eine einheitliche kriminelle Methodik:

Das Verwundbarkeitsprofil für Führungskräfte
Die Forschung zeigt, dass bestimmte Merkmale der Führungskraft das Risiko von Deepfake-Targeting erhöhen:
- Signifikante Medienpräsenz (TV-Interviews, Podcasts, Konferenzen)
- Filmmaterial über öffentliche Reden online verfügbar
- Finanzielle Bewilligungsbefugnis
- Grenzüberschreitende Geschäftstätigkeiten
- Hochkarätige Positionen in der Industrie
Geografische Hotspots:
- Hongkong (Finanzzentrum, komplexe Vorschriften)
- Nordamerika (hohe digitale Akzeptanz, große Wirtschaft)
- Europa (GDPR-Einhaltung schafft Herausforderungen bei der Überprüfung)
Der menschliche Faktor
Trotz aller technischen Raffinesse beruhen viele Angriffe immer noch auf der grundlegenden menschlichen Psychologie:
- Voreingenommenheit gegenüber Autoritäten (Befehle von vermeintlichen Vorgesetzten)
- Dringlichkeitsdruck (künstliche Zeitvorgaben)
- Vertraulichkeitsappelle (besonderer Zugang, Insiderinformationen)
- Sozialer Beweis (mehrere "Kollegen" anwesend)
Die Führungskräfte, die diese Angriffe überlebt haben, weisen gemeinsame Merkmale auf: gesunde Skepsis, Überprüfungsprotokolle und Teamkommunikation über potenzielle Bedrohungen.
Wie das Beispiel von Ferrari beweist, kann manchmal eine einfache Frage eine millionenschwere Technologie besiegen.
Referenzen
CNN (4. Februar 2024) - "Finanzmitarbeiter zahlt $25 Millionen nach Videoanruf mit gefälschtem 'Finanzchef'"
Fortune (17. Mai 2024) - "Ein gefälschter 'CFO' hat die britische Designfirma, die hinter dem Opernhaus von Sydney steht, um $25 Millionen Euro betrogen"
The Guardian - Zitat von Rob Greig über Arup-Anschläge
MIT Sloan Management Review (27. Januar 2025) - "Wie Ferrari bei einem Deepfake-CEO auf die Bremse trat"
The Guardian (Mai 2024) - WPP-CEO Mark Read - Versuch eines Deepfakes
Incode Blog (Dezember 20, 2024) - "Top 5 Fälle von KI-Depfake-Betrug aus dem Jahr 2024 aufgedeckt"
Binance-Blog - "Betrüger haben ein KI-Hologramm von mir erstellt, um ahnungslose Projekte zu betrügen" von Patrick Hillmann
Euronews (August 24, 2022) - "Binance-Führungskraft sagt, dass Betrüger ein gefälschtes 'Hologramm' von ihm erstellt haben"
Eftsure US - "7 Beispiele für Deepfake-Angriffe: Deepfake-CEO-Betrug" - LastPass-Fall