Шахраю достатньо менш ніж 5 секунд публічного аудіо з відео в LinkedIn, щоб клонувати голос і обличчя вашого генерального директора.
За той час, поки ви читали це речення, на чийсь фінансовий відділ могла бути здійснена виконавча шахрайська атака.
Чи достатньо швидка ваша система запобігання платіжному шахрайству, щоб виявити підробку?
І що ви робите зараз, щоб це виявити?
У цьому блозі ми розповімо про різні типи шахрайства з відео для керівників, методи, які використовують шахраї, та основні тривожні сигнали, на які слід звертати увагу. Ви також дізнаєтеся, як можна використовувати штучний інтелект для запобігання таким атакам ще до того, як гроші покинуть ваш рахунок.
Давайте зануримося.
Основні висновки
- Шахрайство з боку керівництва призвело до збитків $410M у першій половині 2025 року.
- Злочинці використовують підміну облич, клонування голосу та маніпуляції з відео в реальному часі.
- Відеодетектори зі штучним інтелектом помічають невеликі візуальні та звукові дефекти, які людина не помічає, і роблять це миттєво.
- Коли відеоперевірки зі штучним інтелектом проходять на етапі затвердження платежу, фальшиві відео можна заблокувати ще до того, як гроші будуть надіслані.
- Поєднання відеоперевірок зі штучним інтелектом з перевіркою зворотного дзвінка та подвійним затвердженням усуває слабке місце, на яке націлені більшість шахрайських атак.
- У 2026 році для запобігання платіжному шахрайству знадобиться автоматизоване виявлення з використанням штучного інтелекту. Одного лише людського судження вже недостатньо.
Що таке виконавчі відео, які ініціюють виплати?
Керівні відео, що ініціюють платежі, - це записані відео або відео в прямому ефірі, які просять або натякають на те, що член фінансової команди повинен переказати гроші.
Вони бувають трьох типів:
- Записи про схвалення генерального директора
Заздалегідь записані відео, на яких генеральний директор схвалює переказ, оплату постачальнику або придбання. На законних підставах вони призначені для аудиту або спілкування між часовими поясами.
Більше ніколи не турбуйтеся про шахрайство зі штучним інтелектом. TruthScan Може допомогти тобі:
- Виявлення згенерованого ШІ зображення, текст, голос і відео.
- Уникайте велике шахрайство, кероване штучним інтелектом.
- Захистіть своє найдорожче чутливий активи підприємства.
Приклад шахрайства: Зловмисники навчають штучний інтелект на публічних матеріалах CEO (таких як LinkedIn, дзвінки з приводу заробітку, телевізійні інтерв'ю) і створюють фальшиве відео зі схваленням платежу.
Фінансовий відділ бачить обличчя та голос генерального директора, думає, що він справжній, і обробляє переказ без жодних запитань.
- Відео з авторизацією фінансового директора
Живі або записані дзвінки фінансового директора, які санкціонують великі транзакції. Фінансові директори є ключовими мішенями, оскільки їхнє схвалення має найвищий авторитет.
- Внутрішні фінансові комунікації
Звичайні на вигляд відео, надіслані через Slack або Teams, щоб обійти стандартні протоколи запобігання платіжному шахрайству.
Приклад шахрайства:
Італійські керівники (початок 2025 року) - втрачено понад 1 млн євро: Злочинці клонували голоси та обличчя кількох лідерів, щоб підробити італійську управлінську команду, що призвело до збитків у розмірі понад 1 млн євро ще до того, як було проведено першу перевірку на предмет виявлення фальшивих документів.

Зростає загроза глибокого шахрайства з боку керівників
Шахрайство з боку керівників на основі глибоких фейків зростає. Втрати зростають 1ТП7Т410М у першій половині 2025 року, і людина може виявити лише невелику частину цієї кількості.
Розглянемо деякі приклади шахрайства з боку керівників:
Arup, Гонконг (лютий 2024) - втрата $25M: Фінансовий працівник приєднався до відеодзвінка, в якому, як виявилося, брали участь її фінансовий директор і колеги. Дзвінок був згенерований штучним інтелектом на основі старих записів зустрічей.
Вона здійснила 15 переказів на загальну суму HK$200M до підтвердження інструкцій.
Singapore Multinational (березень 2025) - втрата $499K: Фінансовий директор схвалив Zoom-дзвінок, на якому були присутні фінансовий директор і команда керівників, згенеровані штучним інтелектом.
Переказ відбувся, оскільки дзвінок був оформлений як термінове придбання. Без відеодетектора зі штучним інтелектом у людського ока просто не було шансів.
Ferrari (липень 2024) - атака зупинена: Шахраї клонували голос генерального директора в WhatsApp, щоб попросити про конфіденційний переказ. Керівники поставили перевірочне запитання, на яке ШІ не зміг відповісти. Кошти не були втрачені.
Методи, які використовують шахраї для маніпуляцій з відео
| Техніка | Як це працює | Чому це небезпечно |
| Підміна обличчя / Фальшиве відео | ШІ навчається на відеозаписах керівників і поміщає їхнє обличчя на тіло іншої людини. Може працювати наживо або на записаних відео. | Виглядає дуже реально. Обходить основні засоби візуального виявлення підробок. |
| Клонування голосу | ШІ копіює голос людини, використовуючи кілька секунд аудіо з інтерв'ю, дзвінків або виступів. | Звучить правдоподібно, що робить шахрайство з боку керівництва важкодоступним для сумнівів |
| Ін'єкції для обличчя в режимі реального часу | Програмне забезпечення замінює обличчя людини під час відеодзвінка в прямому ефірі за допомогою віртуальної камери. | Дозволяє вести повноцінні живі розмови, виступаючи в ролі керівника. |
| Фальшиві зустрічі з кількома особами | Зловмисники створюють цілий відеодзвінок з кількома фальшивими учасниками. | Відчувається більш правдоподібним, тому що багато колег, здається, згодні з цим. |
| OSINT-дослідження (дослідження відкритих даних) | Перед атакою шахраї збирають публічні відео, організаційні схеми та інформацію про компанії. | Робить спробу шахрайства з боку керівництва дуже цілеспрямованою. |
| Підробка платформ і каналів | Фальшиве відео поєднується з фальшивими електронними листами, акаунтами WhatsApp або повідомленнями в чаті. | Кілька каналів роблять аферу більш реальною. |
| Шахрайство як послуга | Підроблені інструменти та набори для шахрайства продаються в Інтернеті задешево. | Будь-хто може проводити просунуті афери. Дуже низька вартість, дуже висока виплата. |
Ознаки потенційно маніпулятивних відеороликів для керівників
Ось деякі з червоних прапорців, які надійний детектор підробок може виявити автоматично:
Візуальні знаки
- Моргання: Моргає занадто рідко або в дивний час.
- Синхронізація по губах: Рот і голос не збігаються.
- Краї обличчя: Обличчя виглядає розмитим або нечітким навколо волосся/шиї.
- Вид збоку: Обличчя виглядає неправильно, коли вони повертають голову.
- Голова застигла: Шия і плечі не рухаються природно.
- Віддзеркалення: Очі або окуляри не відповідають освітленню.
- Шкіра: Занадто гладка або виглядає фальшиво.
- Освітлення: Тіні не відповідають кімнаті.
- Ручний тест: Предмети перед обличчям викликають дивні ефекти.
Звукові знаки
- Роботоподібний голос: занадто чистий або неприродний.
- Дивні паузи: Дивні коливання в розмові.
- Ніякого фонового шуму: Занадто ідеальний звук для кімнати.
- Змінюється акцент: Голос звучить трохи дивно для людей, які його знають.
Поведінка та контекст
- Терміново + секретно: змушує вас діяти швидко наодинці.
- Неправильна платформа: Використовує персональні додатки, щоб обійти автоматичне виявлення шахрайства.
- Без подвійної перевірки: Уникає перевірки через офіційний номер.
- Ігнорує правила: Ігнорує звичайні кроки для запобігання платіжному шахрайству.
Швидкі тести в реальному часі
- Попросіть їх показати вид збоку.
- Подивіться, чи немає на їхньому обличчі збоїв.
- Висуньте язика, щоб помітити помилки.
- Виконайте перевірку відео в реальному часі, запитавши ШІ про щось, що може знати тільки він.
- Завершіть дзвінок і зателефонуйте на офіційний номер для підтвердження.
Як штучний інтелект може виявити шахрайство з відеозаписами керівників
Дослідження показують, що люди не можуть точно ідентифікувати високоякісні глибокі підробки, а технології розвиваються швидше, ніж людська підготовка.
Ми повинні використовувати просунутий ШІ для виявлення шахрайства на основі ШІ;
- Deepfake Detector: Виявляйте синтетичні візуальні ефекти
Deepfake Detector від TruthScan захищає фінансові команди від шахрайства на відео, виявляючи маніпуляції, які людина не може побачити.
Потрібно зловити тонкі маніпуляції? → Виявляє найдрібніші невідповідності на обличчі, шкірі та в освітленні, які не помічає око в реальному часі.
Потрібно перевірити природну поведінку? → Позначає відео, де ШІ не вдається повторити реальні рухи людини.
Потрібно вивчити сам файл? → Вивчає цифрові відбитки пальців, щоб довести, чи було відео підроблене або згенероване штучним інтелектом.
Потрібно виявити фальшивих учасників? → Виявляє колег, згенерованих штучним інтелектом, у групових дзвінках, запобігаючи соціально-інженерним атакам.
Потрібен захист у режимі реального часу? → Відстежує відеодзвінки, щоб підозрілі запити не призводили до оплати.
Потрібна підтримка автоматизованого робочого процесу? → Автоматично позначає, утримує або ескалує підозрілі відео, зосереджуючи фінансові команди на реальних загрозах.
Потрібна точність на рівні підприємства? → Виявлення 99%+ з оцінкою достовірності та позначками часу для внутрішнього аудиту, розслідувань шахрайства та регуляторної звітності.
- Відеодетектор зі штучним інтелектом
Відеодетектор TruthScan AI сканує кожен відеоплатіж перед затвердженням, позначаючи підозрілий вміст оцінками довіри.
Потрібно зупинити фейкові платежі? → Ворота попередньої перевірки автоматично затримують підозрілі відео, щоб вони не викликали оплату.
Потрібно перевірити всі комунікації? → TruthScan аналізує відео, аудіо та текст разом, щоб виявити пов'язані інструкції,
Потрібна велика підтримка? → API та масова обробка обробляють сотні відео без уповільнення робочих процесів.
Потрібен захист від дзвінків у реальному часі? → Розширення браузера миттєво сповіщає під час відеодзвінків.
Потрібно випередити шахрайство зі штучним інтелектом? → Постійні оновлення відстежують найновіші дельфійські фейки.
Впровадження верифікації в платіжні процеси
Щоб посилити захист від платіжного шахрайства, інтегруйте верифікацію безпосередньо в робочий процес:
Крок 1: Попередній перегляд відео для авторизації
Штучний інтелект перевіряє кожне відео за допомогою детектора підробок перед затвердженням. Позначені відео потрапляють до людини-рецензента.
Крок 2: Подвійна авторизація
Платежі на великі суми вимагають двох незалежних погоджень з різних каналів.
Крок 3: Позасмуговий зворотний дзвінок
Підтверджуйте інструкції через надійний, окремий канал, наприклад, за допомогою дзвінка, перевіреного Slack або особисто.
Крок 4: Оцінка аномалій
Поєднуйте сигнали ризику (висока сума, новий рахунок, неробочий час, терміновість, невідповідність платформі) з відеооцінкою, щоб запустити додаткову перевірку.
Крок 5: Тільки перевірені канали
Дозволяйте платежі лише через затверджені корпоративні платформи. Ігноруйте особисті електронні листи, WhatsApp або неперевірені посилання.
Крок 6: Облікові дані C2PA
Використовуйте криптографічні підписи для внутрішніх відео. Будь-яке підроблене або створене штучним інтелектом відео не пройде перевірку штучним інтелектом.
Стратегії зменшення шахрайства з відеоматеріалами для керівників
Ось як організації можуть захистити себе.
# 1 - Навчити фінансові команди імітації штучного інтелекту
Співробітники повинні практикувати імітацію глибоких фейкових атак і вчитися перевіряти їх під тиском:
| Тренінговий фокус | Важливість |
| Перевірка зворотного дзвінка | Запобігає використанню зловмисниками фальшивих телефонних номерів або електронних адрес |
| Перевірка відео в реальному часі | Рух язика, бічний профіль, тести на оклюзію виявляють підробки |
| Протокол утримання платежу | Дозволяє співробітникам безпечно призупиняти транзакції |
| Процес ескалації | Забезпечує швидке потрапляння підозрілих запитів до служби безпеки |
# 2 - Безпечні слова для перевірки
Замість того, щоб просто довіряти відео, встановіть заздалегідь узгоджені фрази або проблемні питання, щоб запобігти шахрайству з боку керівництва:
- Відомий лише невеликій, чітко визначеній групі.
- Якщо керівник не може її надати, взаємодія припиняється, а служба безпеки сповіщає про це.
- Успішно зупиняв реальні атаки в залі засідань.
# 3 - Захистіть цифровий слід керівників
Публічні відео підживлюють підроблені моделі штучного інтелекту. Зменшіть вразливість, щоб захиститися від обходу автоматизованого виявлення шахрайства:
| Дія | Мета |
| Аудит наявних відео- та аудіоматеріалів для керівників | Знати, що доступно в Інтернеті для навчання АІ-моделей |
| Обмежте записи з високою роздільною здатністю та чистим освітленням | Ускладнює зловмисникам створення реалістичних підробок |
| Брифінг для керівництва | Переконайтеся, що співробітники розуміють, що кожен публічний запис є потенційним матеріалом для атаки |
| Збалансувати публічну присутність | Дотримуйтесь потреб інвесторів, преси та маркетингу, але публікуйте свідомо |
# 4 - Застосовуйте нульову довіру до фінансових інструкцій
Ніколи не довіряйте лише відео, голосу чи електронній пошті. Завжди перевіряйте через окремий канал.
- Політика повинна дозволяти працівникам призупиняти виплати навіть під тиском керівництва.
- Відмова від терміновості та авторитету руйнує психологічні важелі атаки.
# 5 - Страхування та тестування кібербезпеки
| Стратегія | Мета |
| Страхування з покриттям від шахрайства зі штучним інтелектом | Захищає від фейкової соціальної інженерії та переривання бізнесу |
| Тестування на проникнення та вправи червоної команди | Імітує атаки, щоб переконатися, що процеси зворотного дзвінка та верифікації працюють на практиці |
# 6 - Дотримуйтесь нових правил
- Закон ЄС про штучний інтелект (серпень 2025 року): Всі глибокі підробки повинні бути чітко марковані.
- Закон "Зніміть це": Криміналізує інтимні фейки без згоди.
- Посібник FinCEN: Посилання FIN-2024-DEEPFAKEFRAUD при повідомленні про підозрілу діяльність.
- Регульовані сектори повинні документувати кроки, вжиті для запобігання шахрайству.
Як TruthScan підвищує безпеку відеоплатежів
TruthScan - це платформа для виявлення шахрайства зі штучним інтелектом, яка захищає понад 250 мільйонів користувачів від підроблених відео, зображень, аудіо та тексту.
Він пропонує шість ключових функцій для організацій, які забезпечують безпеку платежів за допомогою службового відео:
- Перегляньте відео на воротах робочого процесу
Він підключається до ваших платіжних і комунікаційних систем. Кожне відео автоматично сканується, тому ваша команда переглядає лише ті, які здаються підозрілими. - Повний криміналістичний аналіз з веденням журналів
Кожен результат супроводжується оцінкою достовірності, міткою часу та деталями. Це дає вам повний аудиторський слід для комплаєнсу та розслідувань.
- Завжди актуальне виявлення ШІ
Детектор глибоких підробок TruthScan оновлює свої моделі, коли з'являються нові інструменти штучного інтелекту. Ви отримуєте найновіший захист до того, як шахраї вас наздоженуть. - Виявляйте шахрайство на всіх каналах
Він перевіряє не лише відео. Аудіо, зображення, електронні листи та чати - все це аналізується, щоб виявити скоординовані атаки. - Створено для великих обсягів виробництва
Легко обробляє великі обсяги відео. Спеціальні моделі досягають точності 99%+ навіть при великих навантаженнях. - Захист у режимі реального часу під час дзвінків
Сповіщення в браузері показує, чи є відео фальшивим, ще під час дзвінка, до того, як буде здійснена оплата.
Поговоріть з TruthScan про захист платежів від підробок
Одна успішна глибока фейкова атака може коштувати організації $500 000 або більше, хоча технологія для її запуску може коштувати менше $2. Ось такий масштаб загрози.
Ви можете уникнути величезних втрат, вбудувавши відео-верифікацію на основі ШІ безпосередньо в робочі процеси затвердження платежів.
- Зупиняйте шахрайські платіжні запити до того, як вони будуть оброблені
- Захист дзвінків у режимі реального часу для авторизації керівника
- Аудиторські журнали для комплаєнсу та розслідувань
- Постійні оновлення для виявлення новітніх інструментів глибокого підроблення
TruthScan надає інструменти для виявлення глибоких підробок і перевірки відео на основі штучного інтелекту корпоративного рівня. Завдяки інтеграції з API ви можете переконатися, що кожне відео керівника перевіряється до того, як буде здійснено платіж.
Заплануйте демонстрацію або проконсультуйтеся з командою TruthScan за адресою Truthscan.com щоб оцінити свої ризики та побудувати систему верифікації платежів, готову до 2026 року.