Мошеннику потребуется менее 5 секунд публичного аудио из видеоролика LinkedIn, чтобы клонировать голос и лицо вашего генерального директора.
За то время, которое вам понадобилось, чтобы прочитать это предложение, на финансовый отдел компании могла быть совершена атака с целью мошенничества.
Достаточно ли быстро работает ваша система предотвращения мошенничества с платежами, чтобы поймать deepfake?
И что вы делаете прямо сейчас, чтобы обнаружить это?
В этом блоге мы расскажем о различных видах мошенничества с использованием исполнительного видео, о методах, которые используют мошенники, и о ключевых "красных флажках", на которые следует обратить внимание. Вы также узнаете, как можно использовать искусственный интеллект для предотвращения таких атак до того, как деньги покинут ваш счет.
Давайте погрузимся.
Основные выводы
- Мошенничество с использованием Deepfake принесло $410M убытков в первой половине 2025 года.
- Преступники используют подмену лица, клонирование голоса и технологии манипуляции видео в реальном времени.
- Видеодетекторы с искусственным интеллектом способны обнаружить мелкие визуальные и звуковые дефекты, которые человек не замечает, причем делают это мгновенно.
- Когда проверка видео с помощью искусственного интеллекта осуществляется на этапе утверждения платежа, поддельные видеоролики могут быть заблокированы до отправки денег.
- Сочетание видеопроверки с искусственным интеллектом, верификации обратного звонка и двойного одобрения устраняет слабое место, на которое направлено большинство атак мошенников.
- В 2026 году для предотвращения мошенничества с платежами потребуется автоматическое обнаружение с помощью искусственного интеллекта. Одного человеческого суждения уже недостаточно.
Что такое исполнительные видеоролики, вызывающие выплаты?
Исполнительные видеоролики, инициирующие платежи, - это записанные или транслируемые в реальном времени видеоролики, в которых сотрудника финансовой службы просят или намекают на то, что он должен перевести деньги.
Они бывают трех типов:
- Записи с одобрения генерального директора
Записанные заранее видеоролики, в которых генеральный директор утверждает перевод, оплату поставщику или приобретение. По закону, они предназначены для аудита или общения в разных часовых поясах.
Никогда больше не беспокойтесь о мошенничестве с помощью искусственного интеллекта. TruthScan Мы можем помочь вам:
- Обнаружение сгенерированного искусственного интеллекта изображения, текст, голос и видео.
- Избегайте Крупнейшее мошенничество, управляемое искусственным интеллектом.
- Защитите свои самые чувствительный активы предприятия.
Пример мошенничества: Злоумышленники обучают искусственный интеллект на публичных записях, сделанных руководителями компаний (например, в LinkedIn, в отчетах о прибылях и убытках, в телеинтервью), и генерируют поддельное видео с одобрением платежа.
Финансовый отдел видит лицо и голос генерального директора, думает, что это реальность, и обрабатывает перевод без вопросов.
- Видеоролики об авторизации финансового директора
Прямые или записанные звонки финансового директора, санкционирующего крупные сделки. Финансовые директора являются ключевыми мишенями, поскольку их одобрение имеет высшую силу.
- Внутренние финансовые коммуникации
Обычные видеоролики, отправленные через Slack или Teams в обход стандартных протоколов предотвращения мошенничества при оплате.
Пример мошенничества:
Итальянские руководители (начало 2025 года) - €1M+ потеряно: Преступники клонировали голоса и лица нескольких лидеров, чтобы подделать команду руководителей в Италии, что привело к потере более 1 млн евро еще до того, как была проведена первая проверка на предмет обнаружения подделок.

Растущая угроза мошенничества со стороны руководителей Deepfake
Мошенничество руководителей, вызванное фейками, достигло огромных масштабов. Убытки достигли $410M в первой половине 2025 года, А человек может обнаружить лишь небольшую часть этого числа.
Рассмотрим некоторые примеры мошенничества со стороны руководителей:
Arup, Гонконг (февраль 2024) - $25M убыток: Сотрудница финансового отдела присоединилась к видеозвонку, в котором, как оказалось, участвовали ее финансовый директор и коллеги. Звонок был сгенерирован искусственным интеллектом на основе старых записей совещаний.
Она сделала 15 переводов на общую сумму HK$200M, не подтвердив инструкции.
Сингапур Многонациональный (Мар 2025) - $499K потери: Финансовый директор одобрил звонок в формате Zoom, в ходе которого финансовый директор и руководство компании были сгенерированы искусственным интеллектом.
Перевод прошел, потому что звонок был оформлен как срочное приобретение. Без видеодетектора ИИ у человеческого глаза просто не было шансов.
Ferrari (Jul 2024) - Атака прекращена: Мошенники клонировали голос генерального директора в WhatsApp, чтобы запросить конфиденциальный перевод. Руководители задали проверочный вопрос, на который ИИ не смог ответить. Средства не были потеряны.
Приемы, которые мошенники используют для манипулирования видеоматериалами
| Техника | Как это работает | Почему это опасно |
| Подмена лица / Видео с глубокой подделкой | ИИ обучается на видео с руководителем и помещает его лицо на тело другого человека. Может работать как вживую, так и на записанных видео. | Выглядит очень реалистично. Обходит базовое визуальное обнаружение подделок. |
| Клонирование голоса | ИИ копирует голос человека, используя несколько секунд аудиозаписей из интервью, звонков или выступлений. | Звучит реально, поэтому мошенничество руководителей трудно поставить под сомнение |
| Инъекция лица в режиме реального времени | Программное обеспечение заменяет лицо человека во время видеозвонка с помощью виртуальной камеры. | Позволяет вести полноценные разговоры в реальном времени, выступая в роли руководителя. |
| Подставные совещания с участием нескольких человек | Злоумышленники создают целый видеозвонок с несколькими поддельными участниками. | Чувствуешь себя более правдоподобно, потому что многие коллеги с этим согласны. |
| Исследование OSINT (исследование открытых данных) | Мошенники собирают публичные видеозаписи, оргсхемы и информацию о компаниях, прежде чем совершить нападение. | Делает попытку мошенничества очень целенаправленной. |
| Подмена платформ и каналов | Поддельное видео сочетается с поддельными электронными письмами, аккаунтами WhatsApp или сообщениями в чатах. | Благодаря нескольким каналам мошенничество выглядит более реальным. |
| Мошенничество как услуга | Инструменты для глубокой подделки и наборы для мошенничества продаются в Интернете дешево. | Заниматься продвинутым мошенничеством может каждый. Очень низкие затраты, очень высокие выплаты. |
Признаки потенциально манипулируемых видеоматериалов для руководителей
Вот некоторые "красные флажки" deepfake, которые надежный детектор deepfake может уловить автоматически:
Визуальные знаки
- Мигание: Мигает слишком слабо или в неподходящее время.
- Лип-синк: Рот и голос не совпадают.
- Края лица: Лицо выглядит размытым или нечетким в области волос/шеи.
- Вид сбоку: Лицо выглядит неправильно, когда они поворачивают голову.
- Застывшая голова: Шея и плечи не двигаются естественным образом.
- Отражения: Глаза или очки не соответствуют освещению.
- Кожа: Слишком гладкая или выглядит ненатурально.
- Освещение: Тени не соответствуют комнате.
- Тест на руке: Предметы перед лицом вызывают странные эффекты.
Аудиознаки
- Голос, похожий на голос робота: слишком чистый или неестественный.
- Странные паузы: Странные колебания при разговоре.
- Никакого фонового шума: Звучание слишком идеально для комнаты.
- Меняется акцент: Голос звучит немного странно для тех, кто их знает.
Поведение и контекст
- Срочно + секретно: заставляет вас действовать быстро в одиночку.
- Неправильная платформа: Использует личные приложения, чтобы обойти автоматическое обнаружение мошенничества.
- Отсутствие двойной проверки: Позволяет избежать проверки через официальный номер.
- Пропуск правил: Игнорирует обычные шаги по предотвращению мошенничества при оплате.
Быстрые живые тесты
- Попросите их показать вид сбоку.
- Проверьте, не появились ли на их лице сбои.
- Высуньте язык, чтобы заметить ошибки.
- Проведите видеопроверку с помощью искусственного интеллекта, задав вопрос, который может знать только он.
- Завершите вызов и позвоните на официальный номер для подтверждения.
Как искусственный интеллект может обнаружить мошенничество с видеозаписями руководителей
Исследования показывают, что люди не могут точно определить высококачественные подделки, а технологии развиваются быстрее, чем обучение людей.
Мы должны использовать передовой ИИ для обнаружения мошенничества на основе ИИ;
- Детектор фальшивок: Выявление искусственных изображений
Детектор глубоких подделок TruthScan защищает финансовые команды от мошенничества с видеозаписями руководителей, выявляя манипуляции, которые не видны человеку.
Нужно уловить тонкие манипуляции? → Обнаруживает мельчайшие несоответствия лица, кожи и освещения, которые глаза в реальном времени могут пропустить.
Нужно ли проверять естественное поведение? → Отмечает видео, в которых искусственный интеллект не может воспроизвести реальные человеческие движения.
Нужно изучить сам файл? → Изучает цифровые отпечатки пальцев, чтобы доказать, было ли видео подделано или сгенерировано искусственным интеллектом.
Как распознать поддельных участников? → Выявляет коллег, созданных искусственным интеллектом, в групповых звонках, предотвращая атаки с использованием социальной инженерии.
Нужна защита в режиме реального времени? → Отслеживает видеозвонки по мере их совершения, чтобы подозрительные запросы не стали причиной платежей.
Нужна поддержка автоматизированного рабочего процесса? → Отмечайте, задерживайте или эскалируйте подозрительные видеоролики автоматически, чтобы финансовые команды сосредоточились на реальных угрозах.
Нужна точность на уровне предприятия? → Обнаружение 99%+ с оценками достоверности и временными метками для внутренних аудитов, расследований мошенничества и нормативной отчетности.
- Видеодетектор искусственного интеллекта
Видеодетектор TruthScan AI проверяет каждый связанный с видео платеж перед утверждением, отмечая подозрительный контент с помощью баллов доверия.
Как остановить фальшивые платежи? → Ворота предварительной очистки автоматически задерживают подозрительные видеоролики, чтобы они не стали причиной оплаты.
Нужно проверить все коммуникации? → TruthScan анализирует видео, аудио и текст, чтобы обнаружить связанные инструкции,
Нужна поддержка в больших объемах? → API и массовая обработка позволяют обрабатывать сотни видео без замедления рабочего процесса.
Нужна защита от звонков в реальном времени? → Браузерное расширение мгновенно оповещает во время видеозвонков.
Нужно ли опережать мошенников с искусственным интеллектом? → Постоянно обновляемые версии самых последних подделок.
Встраивание верификации в рабочие процессы платежей
Чтобы усилить защиту от мошенничества при оплате, встройте проверку непосредственно в рабочий процесс:
Шаг 1: Видеопросмотр для предварительной авторизации
ИИ проверяет каждое видео с помощью детектора подделок перед утверждением. Отмеченные видеоролики отправляются на рассмотрение человеку.
Шаг 2: Двойная авторизация
Платежи с высокой стоимостью требуют двух независимых одобрений по разным каналам.
Шаг 3: обратный вызов вне зоны действия сети
Подтвердите инструкции по доверенному отдельному каналу, например по телефону, в проверенном Slack или лично.
Шаг 4: оценка аномалий
Объедините сигналы риска (высокая стоимость, новый аккаунт, нерабочее время, срочность, несоответствие платформы) с оценкой видео, чтобы инициировать дополнительную проверку.
Шаг 5: Только проверенные каналы
Разрешайте платежи только через утвержденные корпоративные платформы. Игнорируйте личные электронные письма, WhatsApp и непроверенные ссылки.
Шаг 6: Учетные данные C2PA
Используйте криптографические подписи во внутренних видео. Любое подделанное или созданное ИИ видео не проходит проверку ИИ.
Стратегии сокращения мошенничества с видеоматериалами для руководителей
Вот как организации могут защитить себя.
# 1 - Обучение финансовых специалистов работе с искусственным интеллектом
Сотрудники должны отрабатывать симуляцию атак deepfake и учиться проверке под давлением:
| Фокус на обучение | Важность |
| Проверка обратного вызова | Предотвращает использование злоумышленниками поддельных телефонных номеров или электронных адресов |
| Видеоконтроль в реальном времени | Движение языка, боковой профиль, проверка окклюзии позволяют выявить подделку |
| Протокол удержания платежа | Предоставляет персоналу возможность безопасно приостанавливать транзакции |
| Процесс эскалации | Обеспечивает быструю доставку подозрительных запросов в службу безопасности |
# 2 - Безопасные слова для проверки
Вместо того чтобы просто доверять видео, задайте заранее оговоренные фразы или проблемные вопросы, чтобы предотвратить мошенничество со стороны руководителей:
- Известен только небольшой, определенной группе.
- Если руководитель не может его предоставить, взаимодействие прерывается, а служба безопасности предупреждается.
- Успешно предотвращает реальные нападения в зале заседаний.
# 3 - Защита цифрового следа руководителей
Публичные видеоролики служат питательной средой для моделей искусственного интеллекта. Уменьшите подверженность риску, чтобы защититься от обхода автоматических средств обнаружения мошенничества:
| Действие | Цель |
| Аудит существующих видео/аудиоматериалов для руководителей | Узнайте, что можно найти в Интернете для обучения моделей ИИ |
| Ограничьте записи с высоким разрешением и чистым освещением | Злоумышленникам сложнее создавать реалистичные подделки |
| Брифинг для руководителей | Убедитесь, что сотрудники понимают, что каждая публичная запись - это потенциальный материал для нападения |
| Сбалансированное присутствие в обществе | Сохраняйте информацию о потребностях инвесторов, прессы и маркетинга, но публикуйте ее осознанно. |
# 4 - Применить нулевое доверие для финансовых инструкций
Никогда не доверяйте только видео, голосу или электронной почте. Всегда проверяйте информацию по отдельному каналу.
- Политика должна позволять сотрудникам приостанавливать выплаты даже под давлением руководства.
- Устранение срочности и авторитета разрушает психологический рычаг атаки.
# 5 - Страхование и тестирование кибербезопасности
| Стратегия | Цель |
| Страхование с защитой от мошенничества с помощью искусственного интеллекта | Защита от социальной инженерии deepfake и прерывания бизнеса |
| Тестирование на проникновение и упражнения "красной команды | Моделирование атак, чтобы убедиться, что процессы обратного вызова и проверки работают на практике |
# 6 - Соблюдайте новые правила
- Закон ЕС об искусственном интеллекте (август 2025 года): Все подделки должны быть четко обозначены.
- Закон США "Уберите это": Криминализирует интимные фейки без согласия.
- Руководство FinCEN: При сообщении о подозрительной деятельности ссылайтесь на FIN-2024-DEEPFAKEFRAUD.
- Регулируемые сектора должны документировать меры, принятые для предотвращения мошенничества.
Как TruthScan повышает безопасность видеоплатежей
TruthScan - это платформа для обнаружения мошенничества с помощью искусственного интеллекта, защищающая более 250 миллионов пользователей от поддельных видео, изображений, аудио и текстов.
Он предлагает шесть ключевых функций для организаций, обеспечивающих платежи через исполнительное видео:
- Проверяйте видео на выходе
Он подключается к вашим платежным и коммуникационным системам. Каждое видео автоматически сканируется, поэтому ваша команда просматривает только те, которые кажутся подозрительными. - Полный криминалистический анализ с журналами
Каждый результат сопровождается оценкой достоверности, временной меткой и подробной информацией. Таким образом, вы получаете полный аудиторский след для обеспечения соответствия нормативным требованиям и проведения расследований.
- Всегда актуальное обнаружение искусственного интеллекта
Детектор подделок TruthScan обновляет свои модели по мере появления новых инструментов искусственного интеллекта. Вы получаете новейшую защиту до того, как мошенники настигнут вас. - Обнаружение мошенничества по всем каналам
Он проверяет не только видео. Аудио, изображения, электронные письма и чаты - все это анализируется, чтобы выявить скоординированные атаки. - Создан для больших корпоративных объемов
Легко справляется с большими объемами видео. Пользовательские модели достигают точности 99%+ даже при больших нагрузках. - Защита в режиме реального времени во время звонков
Оповещение в браузере показывает, не подделано ли видео во время звонка, до совершения платежа.
Поговорите с TruthScan о защите платежей от подделок
Одна успешная атака deepfake может обойтись организации в $500 000 и более, а технология для ее проведения может стоить менее $2. Таков масштаб угрозы.
Вы можете избежать огромных потерь, встроив видеоверификацию на основе искусственного интеллекта непосредственно в рабочие процессы утверждения платежей.
- Пресекайте мошеннические платежные запросы еще до их обработки
- Защита вызовов в режиме реального времени для авторизации руководителей
- Журналы аудита для обеспечения соответствия и проведения расследований
- Постоянные обновления для выявления новейших инструментов глубокой подделки
TruthScan предоставляет инструменты корпоративного уровня для обнаружения глубоких подделок и проверки видео с помощью искусственного интеллекта. Благодаря интеграции с API вы можете быть уверены, что каждое исполнительное видео будет проверено до того, как пройдет платеж.
Запланируйте демонстрацию или проконсультируйтесь с командой TruthScan по адресу Truthscan.com чтобы оценить ваши возможности и создать систему проверки платежей, готовую к 2026 году.