Cinci incidente verificate care dovedesc că niciun birou de la colț de stradă nu este ferit de imitarea AI.
Studiu de caz 1: Catastrofa $25M Arup
Companie: Arup (firma globală de inginerie din spatele Casei Operei din Sydney)
Pierdere: $25,6 milioane
Metodă: Videoconferință pe mai multe persoane cu directorul financiar și personalul deepfaked
Data: Începutul anului 2024
Experții în securitate consideră că acesta este unul dintre cele mai sofisticate atacuri deepfake corporative care au avut loc vreodată. În Hong Kong, un angajat al Arup a participat la ceea ce părea a fi o convorbire video de rutină cu directorul financiar al companiei din Marea Britanie și cu alți colegi. Întâlnirea părea legitimă; participanții arătau și vorbeau exact ca directorii reali.
În timpul apelului, angajatul a fost instruit să execute 15 tranzacții separate, în valoare totală de $200 milioane HK, în cinci conturi bancare diferite.
Nu vă mai îngrijorați niciodată de frauda AI. TruthScan Vă poate ajuta:
- Detectarea AI generate imagini, text, voce și video.
- Evitați fraudă majoră generată de IA.
- Protejați-vă cele mai sensibile activele întreprinderii.
Abia după ce a verificat la sediul central al companiei, angajatul a observat că fiecare persoană din acel apel video fusese un deepfake generat de AI.
Nu era vorba de o simplă clonare vocală sau de o imagine statică. Escrocii au creat un videoclip interactiv, în timp real, cu mai mulți directori în același timp, creând un nivel de complexitate care a marcat o nouă evoluție în criminalitatea informatică corporativă.
"La fel ca multe alte întreprinderi din întreaga lume, operațiunile noastre sunt supuse unor atacuri periodice, inclusiv fraudarea facturilor, escrocherii prin phishing, falsificarea vocii WhatsApp și deepfakes. Ceea ce am observat este că numărul și gradul de sofisticare al acestor atacuri au crescut brusc în ultimele luni." Rob Greig, Arup CIO
Studiu de caz 2: Întrebarea de $40 milioane a Ferrari
Companie: Ferrari
Țintă: CEO Benedetto Vigna
Tentativă de pierdere: Nu a fost dezvăluit (zvonurile sugerează milioane)
Metodă: Voce AI Deepfake cu accent italian de sud
Data: Iulie 2024
Rezultat: Prevenite
Directorii Ferrari au primit mesaje prin WhatsApp care păreau să provină de la CEO-ul lor, Benedetto Vigna, împreună cu fotografia sa de profil și marca companiei. Mesajele vorbeau despre o viitoare achiziție importantă și cereau schimbul imediat de informații financiare confidențiale. Într-un apel ulterior, deepfake-ul a copiat chiar și accentul sud-italian al lui Vigna.
Din fericire, un director a început să devină suspicios și a pus o întrebare simplă: "Care era titlul cărții pe care mi-ai recomandat-o săptămâna trecută?" Când AI-ul nu a putut răspunde, înșelătoria a căzut.
Uneori, cea mai sofisticată tehnologie poate fi învinsă de cele mai simple protocoale umane. Întâmplarea cu Ferrari demonstrează atât calitatea deepfakes-urilor moderne, cât și puterea metodelor de verificare personală.
Studiu de caz 3: Capcana Microsoft Teams a WPP
Companie: WPP (cel mai mare grup de publicitate din lume)
Țintă: CEO Mark Read
Metodă: Cont WhatsApp + Întâlnire Teams cu clonă vocală și filmare YouTube
Data: Mai 2024
Rezultat: Prevenite
Infractorii cibernetici au creat un cont fals de WhatsApp folosind fotografii accesibile publicului ale lui Mark Read, CEO al WPP. Ei au folosit apoi acest material pentru a programa o întâlnire Microsoft Teams cu un alt cadru superior, folosind contul, solicitându-i acces imediat la finanțare și informații personale pentru o "nouă afacere".
În timpul apelului video, escrocii au folosit o combinație de tehnologie de clonare a vocii și imagini înregistrate pe YouTube pentru a se da drept Read.
Răspunsul directorului general Mark Read: "Din fericire, atacatorii nu au avut succes. Cu toții trebuie să fim atenți la tehnicile care merg dincolo de e-mailuri pentru a profita de întâlnirile virtuale, IA și deepfakes."
Cazul WPP arată cum executivii cu o prezență mediatică importantă sunt și mai vulnerabili. Cantitatea mare de fotografii și înregistrări video publice ale acestora oferă infractorilor materialul perfect pentru a crea deepfakes.
Studiu de caz 4: Schema Binance "AI Hologramă"
Companie: Binance (cea mai mare platformă de criptomonede din lume)
Țintă: Patrick Hillmann, director de comunicare
Metodă: "Hologramă" de videoconferință folosind imagini din interviuri TV
Data: 2022 (caz major timpuriu)
Rezultat: Mai multe proiecte criptografice înșelate
Hackeri sofisticați au construit ceea ce Hillmann a numit o "hologramă AI", folosind clipuri din aparițiile sale la televiziune și la știri. Deepfake-ul a fost atât de convingător încât a înșelat cu succes mai mulți reprezentanți ai criptografiei în timpul apelurilor Zoom.
Infractorii au folosit această tehnologie pentru a se da drept Hillmann în cadrul întâlnirilor de proiect care vizau listarea Binance. Acestea sunt una dintre cele mai valoroase aprobări din industria criptografică.
Potrivit lui Hillmann, "...în afară de absența notabilă a celor 15 kilograme pe care le-am câștigat în timpul COVID, acest fals profund a fost suficient de rafinat pentru a păcăli mai mulți membri foarte inteligenți ai comunității cripto."
Cazul Binance a marcat un avertisment timpuriu că infractorii trec de la simpla clonare a vocii la imitații video sofisticate care vizează procese de afaceri specifice.
Studiu de caz 5: Apelul intern de trezire al LastPass
Companie: LastPass (securitate cibernetică/gestionarea parolelor)
Țintă: Directorul general al companiei
Metodă: Apeluri WhatsApp, mesaje text și imitarea căsuței vocale
Data: Începutul anului 2024
Rezultat: Prevenite
Escrocii Deepfake au vizat LastPass prin WhatsApp (sunând, trimițând mesaje și lăsând mesaje vocale) în timp ce se dădeau drept CEO-ul companiei.
Angajatul care a fost vizat a observat mai multe semnale de alarmă:
- Comunicările au avut loc în afara programului normal de lucru;
- Cererea avea un caracter de urgență neobișnuit (o tactică obișnuită de înșelătorie);
- Canalul și abordarea au deviat de la protocoalele standard de comunicare ale companiei.
Dacă profesioniștii din domeniul securității cibernetice pot fi vizați cu succes, fiecare organizație trebuie să presupună că sunt vulnerabili.
Modelul din spatele cazurilor
Analiza acestor incidente verificate relevă o metodologie infracțională consecventă:

Profilul de vulnerabilitate al executivului
Cercetările arată că anumite caracteristici ale executivului cresc riscul de a fi țintit în mod fals:
- Prezență semnificativă în mass-media (interviuri TV, podcasturi, conferințe)
- Imagini cu discursuri publice disponibile online
- Autoritatea de autorizare financiară
- Operațiuni comerciale transfrontaliere
- Poziții importante în industrie
Hotspoturi geografice:
- Hong Kong (centru financiar, complexitate legislativă)
- America de Nord (adopție digitală ridicată, economie mare)
- Europa (conformitatea cu GDPR creează provocări de verificare)
Factorul uman
Chiar și cu toată sofisticarea tehnologică, multe atacuri încă se bazează pe psihologia umană de bază:
- Prejudecată de autoritate (ordine de la superiorii percepuți)
- Presiunea urgenței (constrângeri de timp artificiale)
- Apeluri la confidențialitate (acces special, informații privilegiate)
- Dovada socială (prezența mai multor "colegi")
Directorii care au supraviețuit acestor atacuri au trăsături comune: scepticism sănătos, protocoale de verificare și comunicarea în echipă cu privire la potențialele amenințări.
După cum dovedește exemplul Ferrari, uneori o întrebare simplă poate învinge o tehnologie de milioane de dolari.
Referințe
CNN (4 februarie 2024) - "Un lucrător din domeniul finanțelor plătește $25 de milioane după o convorbire video cu un "director financiar" deepfake"
Fortune (17 mai 2024) - "Un "CFO" deepfake a păcălit firma britanică de design din spatele Operei din Sydney într-o fraudă de $25 milioane"
The Guardian - Rob Greig citat despre atacurile Arup
MIT Sloan Management Review (27 ianuarie 2025) - "Cum a frânat Ferrari un CEO Deepfake"
The Guardian (mai 2024) - Mark Read, CEO al WPP Încercare deepfake
Blogul Incode (20 decembrie 2024) - "Top 5 cazuri de fraudă AI Deepfake din 2024 expuse"
Blog Binance - "Escrocii au creat o hologramă AI a mea pentru a escroca proiecte care nu bănuiau nimic" de Patrick Hillmann
Euronews (24 august 2022) - "Binance executive says scammers created deepfake 'hologramă' of him"
Eftsure US - "7 exemple de atacuri Deepfake: Escrocherii Deepfake CEO" - cazul LastPass