Vijf geverifieerde incidenten die bewijzen dat geen enkel kantoor in een hoek veilig is voor AI-imitatie.
Casestudie 1: De ramp met $25M Arup
Bedrijf: Arup (wereldwijd ingenieursbureau achter Sydney Opera House)
Verlies: $25,6 miljoen
Methode: Meerpersoons videoconferentie met CFO en personeel van deepfaked
Datum: Begin 2024
Beveiligingsexperts noemen dit een van de meest geraffineerde zakelijke deepfake aanvallen die ooit heeft plaatsgevonden. In Hong Kong nam een medewerker van Arup deel aan wat leek op een routine videogesprek met de CFO en andere collega's van het bedrijf in het VK. De vergadering leek legitiem; de deelnemers zagen er precies zo uit en klonken precies zo als de echte leidinggevenden.
Tijdens het gesprek kreeg de werknemer de opdracht om 15 afzonderlijke transacties uit te voeren, voor een totaalbedrag van HK$200 miljoen, naar vijf verschillende bankrekeningen.
Maak je nooit meer zorgen over AI-fraude. TruthScan Kan je helpen:
- AI-opgewekt detecteren afbeeldingen, tekst, spraak en video.
- Vermijd grote AI-gestuurde fraude.
- Bescherm uw meest gevoelig bedrijfsmiddelen.
Pas na navraag bij het hoofdkantoor van het bedrijf merkte de medewerker dat elke persoon in dat videogesprek een door AI gegenereerde deepfake was geweest.
Dit was geen eenvoudige stemkloon of statische afbeelding. Fraudeurs hadden een realtime, interactieve video van meerdere leidinggevenden tegelijkertijd gemaakt, waardoor een niveau van complexiteit ontstond dat een nieuwe evolutie in bedrijfscybercriminaliteit markeerde.
"Net als veel andere bedrijven over de hele wereld zijn onze activiteiten regelmatig onderhevig aan aanvallen, waaronder factuurfraude, phishing-zwendel, WhatsApp voice spoofing en deepfakes. Wat we hebben gezien is dat het aantal en de geavanceerdheid van deze aanvallen de afgelopen maanden sterk is toegenomen." Rob Greig, CIO Arup
Casestudie 2: De $40 miljoen vraag van Ferrari
Bedrijf: Ferrari
Doel: CEO Benedetto Vigna
Poging tot verlies: Onbekend (geruchten wijzen op miljoenen)
Methode: Deepfake AI-stem met een Zuid-Italiaans accent
Datum: Juli 2024
Resultaat: Voorkwam
Directieleden van Ferrari ontvingen berichten via WhatsApp die afkomstig leken te zijn van hun CEO, Benedetto Vigna, samen met zijn profielfoto en bedrijfslogo. In de berichten werd gesproken over een grote aanstaande overname en werd aangedrongen op het onmiddellijk delen van vertrouwelijke financiële informatie. In een vervolggesprek kopieerde de deepfake zelfs Vigna's Zuid-Italiaanse accent.
Gelukkig begon een leidinggevende argwaan te krijgen en stelde een eenvoudige vraag: "Wat was de titel van het boek dat je me vorige week aanraadde?" Toen de AI geen antwoord kon geven, viel de zwendel in duigen.
Soms kan de meest geavanceerde technologie worden verslagen door de eenvoudigste menselijke protocollen. Ferrari's close call toont zowel de kwaliteit van moderne deepfakes als de kracht van persoonlijke verificatiemethoden.
Casestudie 3: De Microsoft Teams-val van WPP
Bedrijf: WPP (grootste reclamegroep ter wereld)
Doel: CEO Mark Read
Methode: WhatsApp-account + Teams-vergadering met stemkloon en YouTube-beelden
Datum: Mei 2024
Resultaat: Voorkwam
Cybercriminelen maakten een nep-WhatsApp-account aan met publiekelijk beschikbare foto's van de CEO van WPP, Mark Read. Vervolgens gebruikten ze dit materiaal om een Microsoft Teams-vergadering te plannen met een andere topman, waarbij ze gebruikmaakten van het account en vroegen om toegang tot onmiddellijke financiering en persoonlijke informatie voor een "nieuw bedrijf".
Tijdens het videogesprek gebruikten de fraudeurs een combinatie van stemkloontechnologie en opgenomen YouTube-beelden om zich voor te doen als Read.
Reactie van CEO Mark Read: "Gelukkig waren de aanvallers niet succesvol. We moeten allemaal waakzaam zijn voor de technieken die verder gaan dan e-mails om te profiteren van virtuele vergaderingen, AI en deepfakes."
De WPP-zaak laat zien dat leidinggevenden met een grote aanwezigheid in de media nog kwetsbaarder zijn. De grote hoeveelheid openbare foto's en video's van hen geeft criminelen het perfecte materiaal om deepfakes te maken.
Casestudie 4: De Binance "AI Hologram" regeling
Bedrijf: Binance (grootste cryptocurrency platform ter wereld)
Doel: Patrick Hillmann, hoofd communicatie
Methode: Videoconferentie "hologram" met behulp van beelden van tv-interviews
Datum: 2022 (vroege grote zaak)
Resultaat: Meerdere cryptoprojecten bedrogen
Geavanceerde hackers bouwden wat Hillmann een 'AI hologram' noemde, met behulp van clips van zijn tv- en nieuwsoptredens. De deepfake was zo overtuigend dat hij met succes meerdere cryptovertegenwoordigers misleidde tijdens Zoom-gesprekken.
De criminelen gebruikten deze technologie om zich voor te doen als Hillmann tijdens projectbijeenkomsten voor Binance-vermeldingen. Dit zijn een van de meest waardevolle vermeldingen in de crypto-industrie.
Volgens Hillmann, "...behalve dat de 15 pond die ik tijdens COVID aankwam merkbaar afwezig was, was deze diepe vervalsing verfijnd genoeg om verschillende zeer intelligente leden van de cryptogemeenschap voor de gek te houden."
De Binance-zaak was een vroege waarschuwing dat criminelen verder gingen dan eenvoudige stemklonen en zich gingen voordoen als geavanceerde videoverslagen gericht op specifieke bedrijfsprocessen.
Casestudie 5: De interne wekdienst van LastPass
Bedrijf: LastPass (Cyberbeveiliging/wachtwoordbeheer)
Doel: CEO van het bedrijf
Methode: WhatsApp-oproepen, sms'jes en voicemailimitatie
Datum: Begin 2024
Resultaat: Voorkwam
Deepfake scammers richtten zich op LastPass via WhatsApp (bellen, sms'en en voicemails achterlaten) terwijl ze zich overtuigend voordeden als de CEO van het bedrijf.
De werknemer die het doelwit was, zag verschillende rode vlaggen:
- De communicatie vond plaats buiten de normale kantooruren;
- Het verzoek was ongebruikelijk dringend (een veelgebruikte oplichterstactiek);
- Het kanaal en de aanpak weken af van de standaard communicatieprotocollen van het bedrijf.
Als cyberbeveiligingsprofessionals een succesvol doelwit kunnen zijn, moet elke organisatie ervan uitgaan dat ze kwetsbaar zijn.
Het patroon achter de gevallen
Het analyseren van deze geverifieerde incidenten onthult een consistente criminele methodologie:

Het kwetsbaarheidsprofiel voor leidinggevenden
Onderzoek toont aan dat bepaalde uitvoerende kenmerken het risico op 'deepfake targeting' verhogen:
- Aanzienlijke aanwezigheid in de media (tv-interviews, podcasts, conferenties)
- Beelden van spreken in het openbaar online beschikbaar
- Financiële autorisatie autoriteit
- Grensoverschrijdende bedrijfsactiviteiten
- Belangrijke posities in de industrie
Geografische hotspots:
- Hongkong (financieel centrum, complexe regelgeving)
- Noord-Amerika (hoge digitale adoptie, grote economie)
- Europa (GDPR-compliance creëert verificatie-uitdagingen)
De menselijke factor
Zelfs met alle technologische verfijning zijn veel aanvallen nog steeds gebaseerd op de menselijke psychologie:
- Gezagsvooringenomenheid (bevelen van vermeende superieuren)
- Urgentie (kunstmatige tijdsdruk)
- Beroep op vertrouwelijkheid (speciale toegang, voorkennis)
- Sociaal bewijs (meerdere "collega's" aanwezig)
De leidinggevenden die deze aanvallen hebben overleefd, hebben gemeenschappelijke kenmerken: gezonde scepsis, verificatieprotocollen en teamcommunicatie over mogelijke bedreigingen.
Zoals Ferrari's voorbeeld bewijst, kan een simpele vraag soms miljoenen kostende technologie verslaan.
Referenties
CNN (4 februari 2024) - "Financiële medewerker betaalt $25 miljoen uit na videogesprek met deepfake 'chief financial officer'"
Fortune (17 mei 2024) - "Een 'CFO' bedroog het Britse ontwerpbureau achter het Sydney Opera House in $25 miljoen fraude"
De Wachter - Rob Greig citaat over Arup aanvallen
MIT Sloan Management Review (27 januari 2025) - "Hoe Ferrari op de rem trapte van een Deepfake CEO".
The Guardian (mei 2024) - WPP CEO Mark Read poging tot deepfake
Incode Blog (20 december 2024) - "Top 5 gevallen van AI Deepfake Fraude vanaf 2024 blootgelegd"
Binance Blog - "Oplichters maakten een AI-hologram van mij om nietsvermoedende projecten op te lichten" door Patrick Hillmann
Euronews (24 augustus 2022) - "Binance-directeur zegt dat oplichters 'hologram' van hem hebben gemaakt"
Eftsure VS - "7 voorbeelden van Deepfake-aanvallen: Deepfake CEO oplichting" - LastPass case