Fem verifierade incidenter som visar att inget hörnkontor är säkert från AI-imitation.
Fallstudie 1: Katastrofen med Arup $25M
Företag: Arup (globalt ingenjörsföretag bakom Sydney Opera House)
Förlust: $25,6 miljoner euro
Metod: Videokonferens med flera personer med CFO och personal på DeepFaked
Datum: I början av 2024
Säkerhetsexperter kallar detta för en av de mest sofistikerade deepfake-attackerna mot företag som någonsin har inträffat. I Hongkong deltog en anställd på Arup i något som såg ut som ett rutinmässigt videosamtal med företagets finansdirektör i Storbritannien och andra kollegor. Mötet verkade legitimt; deltagarna såg ut och lät precis som de verkliga cheferna.
Under samtalet instruerades den anställde att genomföra 15 separata transaktioner, på totalt 1,7 miljarder Hongkongkronor, till fem olika bankkonton.
Oroa dig aldrig för AI-bedrägerier igen. TruthScan Kan hjälpa dig:
- Upptäcka AI-generering bilder, text, röst och video.
- Undvik stora AI-drivna bedrägerier.
- Skydda dina mest känslig Företagets tillgångar.
Först efter att ha kontrollerat med företagets huvudkontor upptäckte den anställde att varje person i videosamtalet hade varit en AI-genererad deepfake.
Detta var inte en enkel röstklon eller statisk bild. Bedragarna hade skapat en interaktiv video i realtid av flera chefer samtidigt, vilket skapade en komplexitetsnivå som markerade en ny utveckling inom cyberbrottslighet på företag.
"Precis som många andra företag runt om i världen utsätts vår verksamhet för regelbundna attacker, inklusive fakturabedrägerier, nätfiske, WhatsApp voice spoofing och deepfakes. Vad vi har sett är att antalet och sofistikeringen av dessa attacker har ökat kraftigt under de senaste månaderna." Rob Greig, Arup CIO
Fallstudie 2: Ferraris fråga om $40 miljoner
Företag: Ferrari
Mål: VD Benedetto Vigna
Försök till förlust: Ej offentliggjord (rykten tyder på miljoner)
Metod: Deepfake AI-röst med syditaliensk accent
Datum: juli 2024
Utfall: Förhindrad
Ferrari-chefer fick meddelanden via WhatsApp som verkade komma från deras VD, Benedetto Vigna, tillsammans med hans profilfoto och företagets varumärke. Meddelandena talade om ett stort kommande förvärv och uppmanade till omedelbar delning av konfidentiell finansiell information. I ett uppföljningssamtal kopierade deepfake till och med Vignas syditalienska accent.
Lyckligtvis började en chef bli misstänksam och ställde en enkel fråga: "Vad var titeln på den bok du rekommenderade mig förra veckan?" När AI:n inte kunde svara föll bedrägeriet samman.
Ibland kan den mest sofistikerade tekniken besegras av de enklaste mänskliga protokollen. Ferraris nära ögat visar både kvaliteten på moderna deepfakes och kraften i personliga verifieringsmetoder.
Fallstudie 3: WPP:s Microsoft Teams-fälla
Företag: WPP (världens största reklamkoncern)
Mål: VD Mark Read
Metod: WhatsApp-konto + Teams-möte med röstklon och YouTube-material
Datum: Maj 2024
Utfall: Förhindrad
Cyberbrottslingarna skapade ett falskt WhatsApp-konto med hjälp av offentligt tillgängliga foton av WPP:s VD Mark Read. De använde sedan detta material för att schemalägga ett Microsoft Teams-möte med en annan ledande befattningshavare, med hjälp av kontot, och bad om tillgång till omedelbar finansiering och personlig information för en "ny verksamhet".
Under videosamtalet använde bedragarna en kombination av röstkloningsteknik och inspelade YouTube-filmer för att utge sig för att vara Read.
VD Mark Reads svar: "Lyckligtvis var angriparna inte framgångsrika. Vi måste alla vara vaksamma på de tekniker som går utöver e-postmeddelanden för att dra nytta av virtuella möten, AI och deepfakes."
WPP-fallet visar hur chefer med en stor medienärvaro är ännu mer sårbara. Den stora mängden offentliga foton och videor av dem ger brottslingar det perfekta materialet för att skapa deepfakes.
Fallstudie 4: Binance "AI-hologram"-upplägget
Företag: Binance (världens största plattform för kryptovalutor)
Mål: Patrick Hillmann, kommunikationsdirektör
Metod: Videokonferens "hologram" med hjälp av TV-intervjufilmer
Datum: 2022 (tidigt större fall)
Utfall: Flera kryptoprojekt lurade
Sofistikerade hackare byggde vad Hillmann kallade ett "AI-hologram" med hjälp av klipp från hans TV- och nyhetsframträdanden. Deepfake var så övertygande att det framgångsrikt lurade flera kryptorepresentanter under Zoom-samtal.
Brottslingarna använde denna teknik för att utge sig för att vara Hillmann i projektmöten där de sökte Binance-listor. Dessa är en av de mest värdefulla rekommendationerna i kryptobranschen.
Enligt Hillmann, "... förutom att de 15 kilo som jag gick upp under COVID var märkbart frånvarande, var denna djupa fejk tillräckligt raffinerad för att lura flera mycket intelligenta kryptosamhällsmedlemmar."
Binance-fallet var en tidig varning om att brottslingar gick från enkla röstkloner till sofistikerade videoimitationer som riktade in sig på specifika affärsprocesser.
Fallstudie 5: LastPass interna väckarklocka
Företag: LastPass (cybersäkerhet/lösenordshantering)
Målgrupp: Företagets VD
Metod: WhatsApp-samtal, sms och imitation av röstbrevlåda
Datum: I början av 2024
Utfall: Förhindrad
Deepfake-bedragare riktade sig till LastPass via WhatsApp (ringde, sms:ade och lämnade röstmeddelanden) medan de övertygande utgav sig för att vara företagets VD.
Medarbetaren som utsattes såg flera varningssignaler:
- Kommunikationen skedde utanför normal arbetstid;
- Förfrågan var ovanligt brådskande (en vanlig bedrägeritaktik);
- Kanalen och tillvägagångssättet avvek från företagets standardprotokoll för kommunikation.
Om cybersäkerhetsexperter kan utsättas för framgångsrika angrepp måste alla organisationer utgå från att de är sårbara.
Mönstret bakom fallen
En analys av dessa verifierade incidenter visar på en konsekvent brottsmetodik:

Sårbarhetsprofilen för chefer
Forskning visar att vissa egenskaper hos chefer ökar risken för deepfake targeting:
- Betydande närvaro i media (TV-intervjuer, podcasts, konferenser)
- Filmklipp från offentliga tal tillgängliga online
- Finansiell auktorisationsmyndighet
- Gränsöverskridande affärsverksamhet
- Högprofilerade positioner inom industrin
Geografiska hotspots:
- Hongkong (finansiellt nav, komplicerade regelverk)
- Nordamerika (hög grad av digital anpassning, stor ekonomi)
- Europa (efterlevnad av GDPR skapar verifieringsutmaningar)
Den mänskliga faktorn
Trots all teknisk sofistikering bygger många attacker fortfarande på grundläggande mänsklig psykologi:
- Auktoritetsfördomar (order från upplevda överordnade)
- Brådskande press (artificiell tidsbegränsning)
- Sekretessanspråk (särskild tillgång, insiderinformation)
- Sociala bevis (flera "kollegor" närvarande)
De chefer som överlevde dessa attacker har gemensamma drag: sund skepticism, verifieringsprotokoll och teamkommunikation om potentiella hot.
Som Ferraris exempel visar kan en enkel fråga ibland besegra en teknik som kostar miljoner dollar.
Referenser
CNN (4 februari 2024) - "Finansarbetare betalar ut $25 miljoner efter videosamtal med deepfake 'finanschef'"
Fortune (17 maj 2024) - "En deepfake "CFO" lurade det brittiska designföretaget bakom Sydney Opera House i $25 miljoner bedrägeri"
The Guardian - Rob Greig citat om Arup-attacker
MIT Sloan Management Review (27 januari 2025) - "Hur Ferrari slog bromsarna på en Deepfake CEO"
The Guardian (maj 2024) - WPP:s VD Mark Read deepfake-försök
Incode Blogg (20 december 2024) - "Topp 5 fall av AI Deepfake-bedrägeri från 2024 avslöjade"
Binance Blogg - "Bedragare skapade ett AI-hologram av mig för att lura intet ont anande projekt" av Patrick Hillmann
Euronews (24 augusti 2022) - "Binance-chef säger att bedragare skapade deepfake 'hologram' av honom"
Eftsure USA - "7 exempel på Deepfake-attacker: Deepfake CEO-bedrägerier" - LastPass-fall