Пять подтвержденных инцидентов, доказывающих, что ни один офис не застрахован от подражания ИИ.
Пример 1: Катастрофа $25M Arup
Компания: Arup (международная инженерная компания, создавшая Сиднейский оперный театр)
Потеря: $25,6 млн.
Метод: Видеоконференция на несколько человек с финансовым директором и сотрудниками компании Deepfaked
Дата: Начало 2024 года
Эксперты по безопасности называют эту атаку одной из самых изощренных корпоративных deepfake-атак, которые когда-либо происходили. В Гонконге сотрудник Arup присоединился к обычной видеосвязи с финансовым директором компании из Великобритании и другими коллегами. Встреча выглядела вполне легитимной: участники выглядели и звучали точно так же, как настоящие руководители.
Во время звонка сотруднику было поручено выполнить 15 отдельных транзакций на общую сумму $200 миллионов гонконгских долларов на пять различных банковских счетов.
Никогда больше не беспокойтесь о мошенничестве с помощью искусственного интеллекта. TruthScan Мы можем помочь вам:
- Обнаружение сгенерированного искусственного интеллекта изображения, текст, голос и видео.
- Избегайте Крупнейшее мошенничество, управляемое искусственным интеллектом.
- Защитите свои самые чувствительный активы предприятия.
Только обратившись в головной офис компании, сотрудник заметил, что все участники видеозвонка были глубокой подделкой, сгенерированной искусственным интеллектом.
Это был не простой голосовой клон или статичное изображение. Мошенники создали интерактивное видео в реальном времени с участием нескольких руководителей одновременно, создав уровень сложности, который ознаменовал новую эволюцию в корпоративной киберпреступности.
"Как и многие другие компании по всему миру, наши операции регулярно подвергаются атакам, включая мошенничество со счетами, фишинговые атаки, подмену голоса в WhatsApp и глубокие подделки. В последние месяцы мы заметили, что количество и изощренность этих атак резко возросли". Роб Грейг, ИТ-директор компании Arup
Пример 2: Вопрос на $40 миллионов от Ferrari
Компания: Ferrari
Цель: Генеральный директор Бенедетто Винья
Попытка потери: Нераскрытая информация (по слухам, миллионы)
Метод: Голос искусственного интеллекта Deepfake с южным итальянским акцентом
Дата: Июль 2024 года
Результат: Предотвращено
Руководители Ferrari получали сообщения через WhatsApp, которые, как оказалось, исходили от их генерального директора Бенедетто Виньи, вместе с его фотографией в профиле и брендингом компании. В сообщениях говорилось о предстоящем крупном приобретении и требовалось немедленно поделиться конфиденциальной финансовой информацией. В последующем звонке deepfake даже скопировал южноитальянский акцент Виньи.
К счастью, один из руководителей начал подозревать и задал простой вопрос: "Как называется книга, которую вы рекомендовали мне на прошлой неделе?" Когда ИИ не смог ответить, афера рассыпалась.
Иногда самые сложные технологии могут быть побеждены простейшими человеческими протоколами. Случай с Феррари наглядно демонстрирует как качество современных подделок, так и силу методов проверки личности.
Пример 3: ловушка Microsoft Teams для WPP
Компания: WPP (крупнейшая в мире рекламная группа)
Цель: Генеральный директор Марк Рид
Метод: Аккаунт WhatsApp + командное совещание с голосовым клонированием и видеозаписями на YouTube
Дата: Май 2024 г.
Результат: Предотвращено
Киберпреступники создали поддельную учетную запись WhatsApp, используя общедоступные фотографии генерального директора WPP Марка Рида. Затем они использовали этот материал, чтобы запланировать встречу в Microsoft Teams с другим топ-менеджером, используя эту учетную запись, с просьбой предоставить доступ к немедленному финансированию и личной информации для "нового бизнеса".
Во время видеозвонка мошенники использовали технологию клонирования голоса и записанные на YouTube видеоролики, чтобы выдать себя за Рида.
Ответ генерального директора Марка Рида: "К счастью, злоумышленники не добились успеха. Нам всем нужно быть бдительными в отношении техник, которые выходят за рамки электронной почты и используют преимущества виртуальных встреч, искусственного интеллекта и глубоких подделок".
Случай с WPP показывает, что руководители компаний с большим присутствием в СМИ еще более уязвимы. Большое количество публичных фотографий и видео с их участием дает преступникам отличный материал для создания глубоких подделок.
Пример 4: схема "голограммы искусственного интеллекта" на Binance
Компания: Binance (крупнейшая в мире криптовалютная платформа)
Цель: Патрик Хиллманн, директор по связям с общественностью
Метод: Видеоконференция "голограмма" с использованием записей телевизионных интервью
Дата: 2022 год (ранний основной случай)
Результат: Несколько криптовалютных проектов обмануты
Умелые хакеры создали то, что Хиллманн назвал "голограммой ИИ", используя клипы из его выступлений на телевидении и в новостях. Глубокая подделка была настолько убедительной, что успешно обманула нескольких представителей криптовалют во время звонков в Zoom.
Преступники использовали эту технологию, чтобы выдавать себя за Хиллманна на встречах проектов, ищущих листинги на Binance. Это одно из самых ценных одобрений в криптоиндустрии.
По словам Хиллманна, "...кроме того, что 15 фунтов, которые я набрал во время COVID, заметно отсутствуют, эта глубокая подделка была достаточно утонченной, чтобы одурачить нескольких высокоинтеллектуальных членов криптосообщества".
Случай с Binance стал ранним предупреждением о том, что преступники переходят от простых голосовых клонов к сложным видеоимитациям, нацеленным на конкретные бизнес-процессы.
Пример 5: внутренняя тревога LastPass
Компания: LastPass (кибербезопасность/управление паролями)
Цель: Генеральный директор компании
Метод: Звонки, сообщения и голосовая почта в WhatsApp
Дата: Начало 2024 года
Результат: Предотвращено
Мошенники-глубокомысленные подделки использовали LastPass через WhatsApp (звонили, писали смс и оставляли голосовые сообщения), убедительно выдавая себя за генерального директора компании.
Сотрудник, ставший объектом нападения, заметил несколько тревожных признаков:
- Общение происходило в нерабочее время;
- Просьба носила необычный срочный характер (обычная тактика мошенников);
- Канал и подход отличались от стандартных протоколов общения компании.
Если профессионалы в области кибербезопасности могут стать объектом успешных атак, каждая организация должна считать себя уязвимой.
Загадка, скрывающаяся за делами
Анализ этих проверенных инцидентов позволяет выявить последовательную криминальную методологию:

Профиль уязвимости руководителя
Исследования показывают, что определенные характеристики руководителей повышают риск глубокой подделки:
- Значительное присутствие в средствах массовой информации (телеинтервью, подкасты, конференции)
- Записи публичных выступлений доступны онлайн
- Полномочия по выдаче финансовых разрешений
- Трансграничные деловые операции
- Высокие должности в промышленности
Географические точки:
- Гонконг (финансовый центр, сложность регулирования)
- Северная Америка (высокий уровень внедрения цифровых технологий, крупная экономика)
- Европа (соответствие GDPR создает проблемы с проверкой)
Человеческий фактор
Даже несмотря на все технологические изыски, многие атаки все равно опираются на базовую человеческую психологию:
- Пристрастие к авторитету (приказы от предполагаемых начальников)
- Давление срочности (искусственная нехватка времени)
- Обращения о конфиденциальности (специальный доступ, инсайдерская информация)
- Социальное доказательство (присутствие нескольких "коллег")
Руководителей, переживших эти атаки, объединяют общие черты: здоровый скептицизм, протоколы проверки и командное общение по поводу потенциальных угроз.
Как доказывает пример Ferrari, иногда простой вопрос может победить технологию стоимостью в миллионы долларов.
Ссылки
CNN (4 февраля 2024 года) - "Финансовый работник выплатил $25 миллионов после видеозвонка с подставным "финансовым директором""
Фортуна (17 мая 2024 года) - "Глубоко подделанный "финансовый директор" обманул британскую дизайнерскую фирму, создавшую Сиднейский оперный театр, на $25 миллионов"
The Guardian - Цитата Роба Грейга об атаках Arup
MIT Sloan Management Review (27 января 2025 года) - "Как Ferrari затормозила подставного генерального директора".
The Guardian (май 2024) - Генеральный директор WPP Марк Рид попытка глубокой подделки
Блог Incode (20 декабря 2024 года) - "Раскрыты 5 лучших случаев мошенничества с помощью искусственного интеллекта в 2024 году"
Блог Binance - "Мошенники создали мою голограмму с искусственным интеллектом, чтобы обмануть ничего не подозревающие проекты" Патрик Хиллманн
Евроньюс (24 августа 2022) - "Руководитель Binance утверждает, что мошенники создали его "голограмму" с помощью deepfake".
Eftsure US - "7 примеров атак Deepfake: Deepfake CEO мошенничества" - Дело LastPass