Реальні фейкові кейси про керівників: Коли керівники стають мішенями

П'ять підтверджених інцидентів, які доводять, що жоден кутовий офіс не застрахований від імітації штучного інтелекту.

Тематичне дослідження 1: Катастрофа на 1ТП7Т25М "Аруп

Компанію: Arup (глобальна інжинірингова компанія, що стоїть за Сіднейським оперним театром)
Втрата: $25.6 млн
Метод: Багатостороння відеоконференція з підробленим фінансовим директором та персоналом
Побачення: Початок 2024 року

Експерти з безпеки називають це однією з найскладніших корпоративних фейкових атак, які коли-небудь траплялися. У Гонконзі співробітник Arup приєднався до звичайної відеодзвінка з фінансовим директором компанії з Великобританії та іншими колегами, який виглядав як звичайний відеодзвінок. Зустріч виглядала легітимною; учасники виглядали і говорили точно як справжні керівники.

Під час дзвінка співробітник отримав вказівку здійснити 15 окремих транзакцій на загальну суму HK$200 мільйонів на п'ять різних банківських рахунків. 

Виявлення ШІ Виявлення ШІ

Більше ніколи не турбуйтеся про шахрайство зі штучним інтелектом. TruthScan Може допомогти тобі:

  • Виявлення згенерованого ШІ зображення, текст, голос і відео.
  • Уникайте велике шахрайство, кероване штучним інтелектом.
  • Захистіть своє найдорожче чутливий активи підприємства.
Спробуйте безкоштовно

Лише після перевірки в головному офісі компанії співробітник помітив, що всі учасники відеодзвінка були згенерованими штучним інтелектом фейками.

Це був не просто голосовий клон або статичне зображення. Шахраї створили інтерактивне відео з кількома керівниками одночасно в режимі реального часу, створивши рівень складності, який ознаменував нову еволюцію в корпоративній кіберзлочинності.

"Як і багато інших компаній по всьому світу, наша діяльність регулярно піддається атакам, включаючи шахрайство з рахунками-фактурами, фішингові атаки, підробку голосу в WhatsApp і глибокі підробки. Ми помітили, що кількість і витонченість цих атак різко зростає в останні місяці". Роб Грейг, ІТ-директор Arup

Кейс 2: Мільйонне питання Ferrari $40

Компанію: Феррарі
Ціль: Генеральний директор Бенедетто Вінья
Спроба втрати: Не розголошується (за чутками, мільйони)
Метод: Глибоко підроблений голос ШІ з південноіталійським акцентом
Побачення: Липень 2024 року
Результат: Запобігання

Керівництво компанії Ferrari отримало повідомлення через WhatsApp від генерального директора Бенедетто Віньї (Benedetto Vigna), а також його фотографію профілю та логотип компанії. У повідомленнях йшлося про майбутнє велике придбання і вимагалося негайно поділитися конфіденційною фінансовою інформацією. У наступному дзвінку фейк навіть скопіював південноіталійський акцент Віньї. 

На щастя, один з керівників почав щось підозрювати і поставив просте запитання: "Як називалася книга, яку ви порекомендували мені минулого тижня?" Коли ШІ не зміг відповісти, афера розвалилася.

Іноді найсучасніші технології можуть бути переможені найпростішими людськими протоколами. Історія з Ferrari демонструє як якість сучасних глибоких фейків, так і силу персональних методів верифікації.

Приклад 3: Пастка Microsoft Teams для WPP

Компанію: WPP (найбільша світова рекламна група)
Ціль: Генеральний директор Марк Рід
Метод: Акаунт у WhatsApp + Нарада в команді з голосовим клоном та відео з YouTube
Дата: Травень 2024
Результат: Запобігання

Кіберзлочинці створили фейковий акаунт у WhatsApp, використавши загальнодоступні фотографії генерального директора WPP Марка Ріда. Потім вони використали цей матеріал, щоб запланувати зустріч у Microsoft Teams з іншим топ-менеджером, використовуючи цей акаунт, і попросили доступ до негайного фінансування та особистої інформації для "нового бізнесу".

Під час відеодзвінка шахраї використовували комбінацію технології клонування голосу та записаного відео з YouTube, щоб видати себе за Ріда. 

Відповідь генерального директора Марка Ріда: "На щастя, зловмисники не досягли успіху. Нам усім потрібно бути пильними до технологій, які виходять за межі електронної пошти і використовують переваги віртуальних зустрічей, штучного інтелекту та глибоких фейків".

Випадок з WPP показує, що керівники з великою медіа-присутністю є ще більш вразливими. Велика кількість публічних фотографій і відео з ними дає зловмисникам ідеальний матеріал для створення глибоких фейків.

Приклад 4: Схема "ШІ-голограми" Binance

Компанію: Binance (найбільша у світі криптовалютна платформа)
Ціль: Патрік Хіллманн, директор з комунікацій
Метод: Відеоконференція "голограма" з використанням записів телеінтерв'ю
Побачення: 2022 (ранній основний випадок)
Результат: Кілька крипто-проектів обманули

Досвідчені хакери створили те, що Хіллманн назвав "голограмою штучного інтелекту", використовуючи фрагменти з його виступів на телебаченні та в новинах. Підробка була настільки переконливою, що успішно обдурила кількох представників криптовалют під час дзвінків у Zoom.

Злочинці використовували цю технологію, щоб видавати себе за Хіллманна на зустрічах проектів, які прагнули отримати лістинг на Binance. Це одне з найцінніших підтверджень у криптоіндустрії. 

За словами Хіллманна,   "...крім того, що 15 фунтів, які я набрав під час COVID, помітно зникли, цей глибокий фейк був досить досконалим, щоб обдурити кількох високоінтелектуальних членів криптовалютної спільноти".

Справа Binance стала раннім попередженням про те, що злочинці переходять від простих голосових клонів до складних відеоімітацій, націлених на конкретні бізнес-процеси.

Кейс 5: Внутрішнє пробудження LastPass

Компанію: LastPass (кібербезпека / управління паролями)
Ціль: Генеральний директор компанії
Метод: Дзвінки, тексти та імітація голосової пошти у WhatsApp
Побачення: Початок 2024 року 

Результат: Запобігання

Шахраї атакували LastPass через WhatsApp (дзвінки, смс та голосові повідомлення), переконливо видаючи себе за генерального директора компанії.

Співробітник, який став мішенню, помітив кілька червоних прапорців:

  • Спілкування відбувалося в неробочий час;
  • Прохання було незвично терміновим (поширена тактика шахрайства);
  • Канал і підхід відрізнялися від стандартних протоколів комунікації компанії.

Якщо фахівці з кібербезпеки можуть бути успішними мішенями, кожна організація повинна припускати, що вона є вразливою.

Закономірність, що стоїть за кейсами

Аналіз цих підтверджених інцидентів свідчить про послідовну злочинну методологію:

Реальні фейкові кейси про керівників: Коли керівники стають мішенями

Профіль вразливості керівників

Дослідження показують, що певні характеристики керівників підвищують ризик глибокого фейкового таргетингу:

  • Значна присутність у ЗМІ (телевізійні інтерв'ю, подкасти, конференції)
  • Записи публічних виступів доступні онлайн
  • Фінансовий дозвільний орган
  • Транскордонні бізнес-операції
  • Високопоставлені посади в галузі

Географічні гарячі точки:

  • Гонконг (фінансовий центр, складність регулювання)
  • Північна Америка (високий рівень впровадження цифрових технологій, велика економіка)
  • Європа (дотримання GDPR створює проблеми з верифікацією)

Людський фактор

Навіть попри всю технологічну витонченість, багато атак все ще спираються на базову людську психологію:

  • Упередженість влади (накази вищого керівництва)
  • Тиск терміновості (штучні часові обмеження)
  • Апеляції щодо конфіденційності (спеціальний доступ, інсайдерська інформація)
  • Соціальний доказ (присутність кількох "колег")

Керівники, які пережили ці атаки, мають спільні риси: здоровий скептицизм, протоколи перевірки та комунікація в команді щодо потенційних загроз.

Приклад Ferrari доводить, що іноді просте запитання може перемогти технологію вартістю в мільйон доларів.

Посилання

CNN (4 лютого 2024 року) - "Фінансовий працівник виплатив $25 мільйонів після відеодзвінка з підробленим "фінансовим директором""

Фортуна (17 травня 2024 року) - "Фальшивий "фінансовий директор" обдурив британську дизайнерську фірму, що стоїть за Сіднейським оперним театром, у шахрайстві на суму $25 мільйонів"

"Гардіан - Цитата Роба Гріга про атаки на Arup

MIT Sloan Management Review (27 січня 2025) - "Як Ferrari пригальмувала фальшивого СЕО"

The Guardian (травень 2024) - Спроба глибокого фейку генерального директора WPP Марка Ріда

Incode Blog (20 грудня 2024) - "Викрито топ-5 випадків шахрайства з використанням штучного інтелекту з 2024 року"

Блог Binance - "Шахраї створили мою голограму зі штучним інтелектом, щоб обманювати проекти, які нічого не підозрюють", Патрік Хіллманн

Euronews (24 серпня 2022 року) - "Керівник Binance заявив, що шахраї створили його підроблену "голограму""

Eftsure US - "7 прикладів фейкових атак: Deepfake CEO шахрайства" - кейс LastPass

Copyright © 2025 TruthScan. Всі права захищені