Реальные случаи глубокого подлога руководителей: Когда руководители компаний становятся мишенями

Пять подтвержденных инцидентов, доказывающих, что ни один офис не застрахован от подражания ИИ.

Пример 1: Катастрофа $25M Arup

Компания: Arup (международная инженерная компания, создавшая Сиднейский оперный театр)
Потеря: $25,6 млн.
Метод: Видеоконференция на несколько человек с финансовым директором и сотрудниками компании Deepfaked
Дата: Начало 2024 года

Эксперты по безопасности называют эту атаку одной из самых изощренных корпоративных deepfake-атак, которые когда-либо происходили. В Гонконге сотрудник Arup присоединился к обычной видеосвязи с финансовым директором компании из Великобритании и другими коллегами. Встреча выглядела вполне легитимной: участники выглядели и звучали точно так же, как настоящие руководители.

Во время звонка сотруднику было поручено выполнить 15 отдельных транзакций на общую сумму $200 миллионов гонконгских долларов на пять различных банковских счетов. 

Обнаружение искусственного интеллекта Обнаружение искусственного интеллекта

Никогда больше не беспокойтесь о мошенничестве с помощью искусственного интеллекта. TruthScan Мы можем помочь вам:

  • Обнаружение сгенерированного искусственного интеллекта изображения, текст, голос и видео.
  • Избегайте Крупнейшее мошенничество, управляемое искусственным интеллектом.
  • Защитите свои самые чувствительный активы предприятия.
Попробуй бесплатно

Только обратившись в головной офис компании, сотрудник заметил, что все участники видеозвонка были глубокой подделкой, сгенерированной искусственным интеллектом.

Это был не простой голосовой клон или статичное изображение. Мошенники создали интерактивное видео в реальном времени с участием нескольких руководителей одновременно, создав уровень сложности, который ознаменовал новую эволюцию в корпоративной киберпреступности.

"Как и многие другие компании по всему миру, наши операции регулярно подвергаются атакам, включая мошенничество со счетами, фишинговые атаки, подмену голоса в WhatsApp и глубокие подделки. В последние месяцы мы заметили, что количество и изощренность этих атак резко возросли". Роб Грейг, ИТ-директор компании Arup

Пример 2: Вопрос на $40 миллионов от Ferrari

Компания: Ferrari
Цель: Генеральный директор Бенедетто Винья
Попытка потери: Нераскрытая информация (по слухам, миллионы)
Метод: Голос искусственного интеллекта Deepfake с южным итальянским акцентом
Дата: Июль 2024 года
Результат: Предотвращено

Руководители Ferrari получали сообщения через WhatsApp, которые, как оказалось, исходили от их генерального директора Бенедетто Виньи, вместе с его фотографией в профиле и брендингом компании. В сообщениях говорилось о предстоящем крупном приобретении и требовалось немедленно поделиться конфиденциальной финансовой информацией. В последующем звонке deepfake даже скопировал южноитальянский акцент Виньи. 

К счастью, один из руководителей начал подозревать и задал простой вопрос: "Как называется книга, которую вы рекомендовали мне на прошлой неделе?" Когда ИИ не смог ответить, афера рассыпалась.

Иногда самые сложные технологии могут быть побеждены простейшими человеческими протоколами. Случай с Феррари наглядно демонстрирует как качество современных подделок, так и силу методов проверки личности.

Пример 3: ловушка Microsoft Teams для WPP

Компания: WPP (крупнейшая в мире рекламная группа)
Цель: Генеральный директор Марк Рид
Метод: Аккаунт WhatsApp + командное совещание с голосовым клонированием и видеозаписями на YouTube
Дата: Май 2024 г.
Результат: Предотвращено

Киберпреступники создали поддельную учетную запись WhatsApp, используя общедоступные фотографии генерального директора WPP Марка Рида. Затем они использовали этот материал, чтобы запланировать встречу в Microsoft Teams с другим топ-менеджером, используя эту учетную запись, с просьбой предоставить доступ к немедленному финансированию и личной информации для "нового бизнеса".

Во время видеозвонка мошенники использовали технологию клонирования голоса и записанные на YouTube видеоролики, чтобы выдать себя за Рида. 

Ответ генерального директора Марка Рида: "К счастью, злоумышленники не добились успеха. Нам всем нужно быть бдительными в отношении техник, которые выходят за рамки электронной почты и используют преимущества виртуальных встреч, искусственного интеллекта и глубоких подделок".

Случай с WPP показывает, что руководители компаний с большим присутствием в СМИ еще более уязвимы. Большое количество публичных фотографий и видео с их участием дает преступникам отличный материал для создания глубоких подделок.

Пример 4: схема "голограммы искусственного интеллекта" на Binance

Компания: Binance (крупнейшая в мире криптовалютная платформа)
Цель: Патрик Хиллманн, директор по связям с общественностью
Метод: Видеоконференция "голограмма" с использованием записей телевизионных интервью
Дата: 2022 год (ранний основной случай)
Результат: Несколько криптовалютных проектов обмануты

Умелые хакеры создали то, что Хиллманн назвал "голограммой ИИ", используя клипы из его выступлений на телевидении и в новостях. Глубокая подделка была настолько убедительной, что успешно обманула нескольких представителей криптовалют во время звонков в Zoom.

Преступники использовали эту технологию, чтобы выдавать себя за Хиллманна на встречах проектов, ищущих листинги на Binance. Это одно из самых ценных одобрений в криптоиндустрии. 

По словам Хиллманна,   "...кроме того, что 15 фунтов, которые я набрал во время COVID, заметно отсутствуют, эта глубокая подделка была достаточно утонченной, чтобы одурачить нескольких высокоинтеллектуальных членов криптосообщества".

Случай с Binance стал ранним предупреждением о том, что преступники переходят от простых голосовых клонов к сложным видеоимитациям, нацеленным на конкретные бизнес-процессы.

Пример 5: внутренняя тревога LastPass

Компания: LastPass (кибербезопасность/управление паролями)
Цель: Генеральный директор компании
Метод: Звонки, сообщения и голосовая почта в WhatsApp
Дата: Начало 2024 года 

Результат: Предотвращено

Мошенники-глубокомысленные подделки использовали LastPass через WhatsApp (звонили, писали смс и оставляли голосовые сообщения), убедительно выдавая себя за генерального директора компании.

Сотрудник, ставший объектом нападения, заметил несколько тревожных признаков:

  • Общение происходило в нерабочее время;
  • Просьба носила необычный срочный характер (обычная тактика мошенников);
  • Канал и подход отличались от стандартных протоколов общения компании.

Если профессионалы в области кибербезопасности могут стать объектом успешных атак, каждая организация должна считать себя уязвимой.

Загадка, скрывающаяся за делами

Анализ этих проверенных инцидентов позволяет выявить последовательную криминальную методологию:

Реальные случаи глубокого подлога руководителей: Когда руководители компаний становятся мишенями

Профиль уязвимости руководителя

Исследования показывают, что определенные характеристики руководителей повышают риск глубокой подделки:

  • Значительное присутствие в средствах массовой информации (телеинтервью, подкасты, конференции)
  • Записи публичных выступлений доступны онлайн
  • Полномочия по выдаче финансовых разрешений
  • Трансграничные деловые операции
  • Высокие должности в промышленности

Географические точки:

  • Гонконг (финансовый центр, сложность регулирования)
  • Северная Америка (высокий уровень внедрения цифровых технологий, крупная экономика)
  • Европа (соответствие GDPR создает проблемы с проверкой)

Человеческий фактор

Даже несмотря на все технологические изыски, многие атаки все равно опираются на базовую человеческую психологию:

  • Пристрастие к авторитету (приказы от предполагаемых начальников)
  • Давление срочности (искусственная нехватка времени)
  • Обращения о конфиденциальности (специальный доступ, инсайдерская информация)
  • Социальное доказательство (присутствие нескольких "коллег")

Руководителей, переживших эти атаки, объединяют общие черты: здоровый скептицизм, протоколы проверки и командное общение по поводу потенциальных угроз.

Как доказывает пример Ferrari, иногда простой вопрос может победить технологию стоимостью в миллионы долларов.

Ссылки

CNN (4 февраля 2024 года) - "Финансовый работник выплатил $25 миллионов после видеозвонка с подставным "финансовым директором""

Фортуна (17 мая 2024 года) - "Глубоко подделанный "финансовый директор" обманул британскую дизайнерскую фирму, создавшую Сиднейский оперный театр, на $25 миллионов"

The Guardian - Цитата Роба Грейга об атаках Arup

MIT Sloan Management Review (27 января 2025 года) - "Как Ferrari затормозила подставного генерального директора".

The Guardian (май 2024) - Генеральный директор WPP Марк Рид попытка глубокой подделки

Блог Incode (20 декабря 2024 года) - "Раскрыты 5 лучших случаев мошенничества с помощью искусственного интеллекта в 2024 году"

Блог Binance - "Мошенники создали мою голограмму с искусственным интеллектом, чтобы обмануть ничего не подозревающие проекты" Патрик Хиллманн

Евроньюс (24 августа 2022) - "Руководитель Binance утверждает, что мошенники создали его "голограмму" с помощью deepfake".

Eftsure US - "7 примеров атак Deepfake: Deepfake CEO мошенничества" - Дело LastPass

Copyright © 2025 TruthScan. Все права защищены