Cinque incidenti verificati che dimostrano che nessun ufficio è al sicuro dall'impersonificazione dell'IA.
Caso di studio 1: la catastrofe di Arup $25M
Azienda: Arup (società di ingegneria globale dietro l'Opera House di Sydney)
Perdita: $25,6 milioni
Metodo: Videoconferenza a più persone con il CFO e il personale di Deepfaked
Data: Inizio 2024
Gli esperti di sicurezza lo definiscono uno degli attacchi deepfake aziendali più sofisticati mai avvenuti. A Hong Kong, un dipendente di Arup si è unito a quella che sembrava una videochiamata di routine con il direttore finanziario dell'azienda con sede nel Regno Unito e altri colleghi. La riunione sembrava legittima: i partecipanti avevano l'aspetto e l'audio dei veri dirigenti.
Durante la telefonata, il dipendente è stato incaricato di eseguire 15 transazioni separate, per un totale di $200 milioni di HK, su cinque diversi conti bancari.
Non preoccupatevi più delle frodi dell'IA. TruthScan Può aiutarvi:
- Rilevare l'IA generata immagini, testo, voce e video.
- Evitare frodi di grande portata guidate dall'intelligenza artificiale.
- Proteggete i vostri prodotti più sensibile beni dell'impresa.
Solo dopo aver verificato con la sede centrale dell'azienda, il dipendente si è accorto che ogni persona presente in quella videochiamata era un deepfake generato dall'IA.
Non si trattava di un semplice clone vocale o di un'immagine statica. I truffatori hanno creato un video interattivo in tempo reale di più dirigenti contemporaneamente, creando un livello di complessità che ha segnato una nuova evoluzione nella criminalità informatica aziendale.
"Come molte altre aziende in tutto il mondo, le nostre attività sono soggette ad attacchi regolari, tra cui frodi sulle fatture, truffe di phishing, spoofing della voce di WhatsApp e deepfakes. Abbiamo notato che il numero e la sofisticazione di questi attacchi sono aumentati notevolmente negli ultimi mesi". Rob Greig, CIO di Arup
Caso di studio 2: la domanda da $40 milioni della Ferrari
Azienda: Ferrari
Obiettivo: Amministratore delegato Benedetto Vigna
Tentativo di perdita: Non dichiarato (le voci suggeriscono milioni)
Metodo: Voce AI Deepfake con accento italiano del sud
Data: Luglio 2024
Risultato: Impedito
I dirigenti della Ferrari hanno ricevuto messaggi via WhatsApp che sembravano provenire dal loro amministratore delegato, Benedetto Vigna, con la foto del suo profilo e il marchio dell'azienda. I messaggi parlavano di una grande acquisizione imminente e richiedevano l'immediata condivisione di informazioni finanziarie riservate. In una chiamata successiva, il deepfake ha persino copiato l'accento italiano meridionale di Vigna.
Fortunatamente, un dirigente ha iniziato a insospettirsi e ha posto una semplice domanda: "Qual è il titolo del libro che mi ha consigliato la settimana scorsa?" Quando l'IA non ha saputo rispondere, la truffa è andata in fumo.
A volte, la tecnologia più sofisticata può essere sconfitta dai protocolli umani più semplici. Il caso Ferrari dimostra sia la qualità dei moderni deepfake sia la potenza dei metodi di verifica personale.
Studio di caso 3: la trappola di Microsoft Teams di WPP
Azienda: WPP (il più grande gruppo pubblicitario del mondo)
Obiettivo: CEO Mark Read
Metodo: Account WhatsApp + riunione Teams con clone vocale e filmati YouTube
Data: Maggio 2024
Risultato: Impedito
I criminali informatici hanno creato un falso account WhatsApp utilizzando foto pubblicamente disponibili del CEO di WPP, Mark Read. Hanno poi utilizzato questo materiale per programmare una riunione Microsoft Teams con un altro dirigente di alto livello, utilizzando l'account, chiedendo l'accesso a finanziamenti immediati e informazioni personali per una "nuova attività".
Durante la videochiamata, i truffatori hanno utilizzato una combinazione di tecnologia di clonazione vocale e filmati registrati su YouTube per impersonare Read.
La risposta del CEO Mark Read: "Fortunatamente gli aggressori non hanno avuto successo. Dobbiamo tutti essere vigili sulle tecniche che vanno oltre le e-mail per sfruttare riunioni virtuali, IA e deepfakes".
Il caso WPP mostra come i dirigenti con una grande presenza sui media siano ancora più vulnerabili. La grande quantità di foto e video pubblici che li ritraggono offre ai criminali il materiale perfetto per creare deepfakes.
Caso di studio 4: lo schema "ologramma AI" di Binance
Azienda: Binance (la più grande piattaforma di criptovalute al mondo)
Obiettivo: Patrick Hillmann, responsabile delle comunicazioni
Metodo: Un "ologramma" da videoconferenza che utilizza il filmato di un'intervista televisiva
Data: 2022 (caso maggiore precoce)
Risultato: Ingannati diversi progetti di criptovaluta
Hacker sofisticati hanno costruito quello che Hillmann ha definito un "ologramma AI", utilizzando spezzoni delle sue apparizioni in TV e nei notiziari. Il deepfake era così convincente che è riuscito a ingannare diversi rappresentanti della criptovaluta durante le chiamate Zoom.
I criminali hanno utilizzato questa tecnologia per impersonare Hillmann nelle riunioni di progetto per la ricerca di quotazioni su Binance. Si tratta di uno degli endorsement più preziosi nel settore delle criptovalute.
Secondo Hillmann, "...a parte l'evidente assenza dei 15 chili che ho preso durante il COVID, questo falso profondo è stato abbastanza raffinato da ingannare diversi membri della comunità crittografica altamente intelligenti".
Il caso di Binance è stato un primo avvertimento del fatto che i criminali stavano andando oltre i semplici cloni vocali per passare a sofisticate impersonificazioni video mirate a specifici processi aziendali.
Caso di studio 5: la sveglia interna di LastPass
Azienda: LastPass (sicurezza informatica/gestione delle password)
Obiettivo: CEO dell'azienda
Metodo: Chiamate, messaggi e messaggi vocali su WhatsApp
Data: Inizio 2024
Risultato: Impedito
I truffatori di Deepfake hanno preso di mira LastPass su WhatsApp (chiamando, inviando messaggi e lasciando messaggi vocali) fingendosi il CEO dell'azienda.
Il dipendente preso di mira ha notato diversi segnali di allarme:
- Le comunicazioni sono avvenute al di fuori del normale orario di lavoro;
- La richiesta aveva un'urgenza insolita (una tattica di truffa comune);
- Il canale e l'approccio si discostavano dai protocolli di comunicazione aziendali standard.
Se i professionisti della sicurezza informatica possono essere presi di mira con successo, ogni organizzazione deve presumere di essere vulnerabile.
Lo schema dei casi
L'analisi di questi episodi verificati rivela una metodologia criminale coerente:

Il profilo di vulnerabilità dei dirigenti
Le ricerche dimostrano che alcune caratteristiche esecutive aumentano il rischio di deepfake targeting:
- Presenza significativa sui media (interviste televisive, podcast, conferenze)
- Filmati di discorsi in pubblico disponibili online
- Autorizzazione finanziaria
- Operazioni commerciali transfrontaliere
- Posizioni di alto profilo nel settore
Hotspot geografici:
- Hong Kong (hub finanziario, complessità normativa)
- Nord America (elevata adozione del digitale, grande economia)
- Europa (la conformità al GDPR crea problemi di verifica)
Il fattore umano
Anche con tutta la sofisticazione tecnologica, molti attacchi si basano ancora sulla psicologia umana di base:
- Pregiudizio dell'autorità (ordini da parte di superiori percepiti)
- Pressione dell'urgenza (vincoli temporali artificiali)
- Ricorsi per la riservatezza (accesso speciale, informazioni privilegiate)
- Prova sociale (presenza di più "colleghi")
I dirigenti sopravvissuti a questi attacchi hanno tratti comuni: un sano scetticismo, protocolli di verifica e comunicazione di gruppo sulle potenziali minacce.
Come dimostra l'esempio della Ferrari, a volte una semplice domanda può sconfiggere una tecnologia da milioni di dollari.
Riferimenti
CNN (4 febbraio 2024) - "Lavoratore della finanza paga $25 milioni dopo la videochiamata con il 'chief financial officer' deepfake"
Fortune (17 maggio 2024) - "Un finto 'CFO' ha ingannato lo studio di progettazione britannico dietro l'Opera House di Sydney con una frode da $25 milioni"
Il Guardian - Citazione di Rob Greig sugli attacchi di Arup
MIT Sloan Management Review (27 gennaio 2025) - "Come la Ferrari ha frenato un amministratore delegato "deepfake"".
The Guardian (maggio 2024) - Mark Read, CEO di WPP, ha tentato un deepfake
Blog Incode (20 dicembre 2024) - "Esposti i 5 principali casi di frode AI Deepfake del 2024"
Blog di Binance - "I truffatori hanno creato un mio ologramma AI per truffare progetti ignari" di Patrick Hillmann
Euronews (24 agosto 2022) - "Il dirigente di Binance afferma che i truffatori hanno creato un suo "ologramma" deepfake".
Eftsure US - "7 esempi di attacchi deepfake: Truffe Deepfake ai CEO" - Caso LastPass