Сплеск штучного інтелекту в 1,300%: Новий бізнес-ризик

За останні дванадцять місяців у діловому світі спостерігався величезний сплеск шахрайства на основі глибоких підробок. 

У "The Звіт про голосовий інтелект та безпеку 2025 від Піндропа показує, що кількість голосових атак зросла до 1300%, що перевищує попередній місячний показник, оскільки тепер вони відбуваються сім разів на день. 

Дослідження 1,2 мільярда клієнтських дзвінків, проведене в рамках звіту, доводить, що цей розвиток подій є чимось більшим, ніж звичайне зростання кіберзлочинності, оскільки означає повну зміну операційних методів шахрайства.

Модель зростання не вказує на поступовість розвитку. Швидкі темпи цього підриву призвели до повної трансформації економічних систем, заснованих на довірі.

Численні статистичні дані показують всю глибину цієї кризи, що розвивається. 

Ресурсний центр з питань крадіжки персональних даних зафіксував зростання кількості шахрайств з використанням особистих даних на 148% за період з квітня 2024 року по березень 2025 року. 

Загальна сума збитків від шахрайства у 2024 році сягнула 1 трлн 7 трлн 16,6 млрд, що на 331 трлн 6 трлн більше, ніж у 2023 році. 

Розвиток технологій штучного інтелекту перетворив обман на промислову операцію, яка веде свою діяльність на промисловому рівні.

Експозиція на рівні керівників

Фінансові фальшиві атаки були спрямовані на більш ніж 25% виконавчих систем, які керують як фінансовими, так і бухгалтерськими операціями. 

Кількість керівників, які прогнозують зростання фінансових фейкових атак у наступному році, сягнула понад 50%.

Анатомія індустріальної атаки

Клонування голосу: Від хвилин до миттєвостей

Мовленнєві моделі штучного інтелекту продемонстрували виняткове зростання у своєму розвитку за останні кілька років. 

Базове безкоштовне програмне забезпечення дозволяє користувачам створювати синтетичні голоси за допомогою коротких голосових записів, що раніше вимагало великого обсягу аудіоматеріалу та спеціалізованих інструментів, на створення яких витрачалося кілька днів. 

Штучне мовлення відповідає природній якості людського голосу.

Виявлення ШІ Виявлення ШІ

Більше ніколи не турбуйтеся про шахрайство зі штучним інтелектом. TruthScan Може допомогти тобі:

  • Виявлення згенерованого ШІ зображення, текст, голос і відео.
  • Уникайте велике шахрайство, кероване штучним інтелектом.
  • Захистіть своє найдорожче чутливий активи підприємства.
Спробуйте безкоштовно

Вплив за галузями:

  • У страховому секторі кількість синтетичних голосових атак зросла на 475% за цей період.
  • Банківська галузь зафіксувала збільшення кількості голосових шахрайських дій на 149%.
  • Протягом наступних п'яти років контакт-центри зазнають потенційних збитків від шахрайства в розмірі 1 трлн 7 трлн 44,5 млрд доларів.
  • Інциденти безпеки коштують компаніям в середньому $600,000 за інцидент.
Сплеск штучного інтелекту в 1,300%: Новий бізнес-ризик

Нове обличчя шахрайства: Витончене та відшліфоване

Зараз шахраї використовують просунуті глибокі фейкові атаки, які перевершують звичайні шахрайські листи, оскільки їхні атаки мають бездоганну граматику і з'являються у відповідні моменти, виглядаючи при цьому надзвичайно достовірно. 

Ці атаки обходять як запрограмовані системи безпеки, так і людські судження.

Тематичне дослідження: Майже промах ВЕС

Злочинці намагалися реалізувати складну схему шахрайства, створивши фальшивий акаунт у WhatsApp на ім'я генерального директора WPP, поєднавши голосовий клон, який імітував голос Марка Ріда, з відтворенням відео на YouTube для фальшивих виразів обличчя Марка Ріда, використовуючи при цьому записані відео з публічних доменів. 

Зловмисники проводили атаку через Microsoft Teams і надсилали переконливі фейкові повідомлення, використовуючи методи імітації та тактику соціальної інженерії, щоб створити хибне відчуття терміновості бізнесу.

Нападники дійшли до того, що майже досягли своєї мети. 

Обман зловмисників не вдався, оскільки вони внесли невеликі невідповідності у свою розповідь, що змусило жертву поставити під сумнів їхню історію. 

Цей інцидент довів, що сучасні методи обману ШІ можуть обдурити навіть досвідчених професіоналів завдяки своїй реалістичності та складності.

Азійсько-Тихоокеанський регіон: Глобальна гаряча точка

Сплеск штучного інтелекту в 1,300%: Новий бізнес-ризик

Азійсько-Тихоокеанський регіон став світовим центром шахрайських дій з використанням штучного інтелекту. Кількість атак, пов'язаних зі штучним інтелектом, протягом 2024 року зросла на 194% порівняно з 2023 роком.

Чому саме тут? Швидке впровадження цифрових платежів у поєднанні з недостатніми системами захисту від шахрайства в регіоні створило ідеальне середовище для діяльності зловмисників.

Основні регіональні дані:

  • Середній фінансовий збиток від кожного інциденту становить $600,000.
  • Відшкодування викрадених коштів залишається нижчим за 5% у всіх випадках.
  • Фінансові збитки, пов'язані з глибокими фейками, перевищили $1 мільйон доларів і торкнулися понад 10% фінансових установ.

Регіон є основною мішенню для шахрайства з використанням штучного інтелекту, оскільки працівники працюють віддалено, а інструменти синтезу голосу є легкодоступними.

За межами голосу: Багатовекторне шахрайство вже тут

Сплеск атак із заміною облич 704%

За даними iProov, кількість атак із підміною облич зросла на 704% протягом 2023 року, тоді як шахрайство з мобільними ін'єкціями зросло на 255%. 

Загальна кількість спроб шахрайства наразі включає 42,5% згенерованих штучним інтелектом спроб, які були успішними у 30% випадках.

Повідомлені інциденти безпеки свідчать про постійний розвиток загроз, які впливають на різні системи.

Матриця вразливостей підприємства

  • У секторі роздрібної торгівлі протягом 2024 року кількість шахрайських дій зросла на 107%, і експерти прогнозують, що у 2025 році випадки шахрайства подвояться.
  • Зловмисники використовують глибокі підробки, щоб обійти системи перевірки особи, які захищають від процесів KYC.
  • Системи штучного інтелекту створюють штучні профілі облич, які здатні обманювати системи розпізнавання облич.
  • Зловмисники використовують синтетичний контент для створення оманливих юридичних документів та облікових даних за допомогою методів підробки документів.

Справа Бреда Пітта: Психологічне шахрайство з використанням штучного інтелекту

Французький дизайнер інтер'єрів став жертвою витонченої афери зі штучним інтелектом, переказавши шахраям майже $1 мільйон євро протягом декількох місяців.

Стратегія нападу:

  • Спочатку самозванка зв'язалася з жертвою, назвавшись матір'ю Бреда Пітта.
  • Глибоко підроблений звук і зображення, згенеровані штучним інтелектом, допомагали підтримувати ілюзію протягом тривалого часу.
  • Фальшиві медичні картки та документи, що виглядали легально, надавали схемі додатковий рівень достовірності.
  • Мультимедійний контент підтримував правдоподібність фальшивої ідентичності протягом кількох місяців.

Людина, яка не була новачком у технологіях, стала жертвою відвертого шахрайства. 

Жертва діяла як власник бізнесу, який не знав, що взаємодіє зі штучним інтелектом. 

Цей інцидент демонструє високий рівень обману, якого можуть досягти сучасні технології глибоких фейків.

Прогалина у виявленні: чому більшість компаній не готові

Криза поінформованості на найвищому рівні

Організаціям важко захистити себе від зростаючого числа атак, оскільки вони не розробили достатніх стратегій захисту.

  • Керівники 25% організацій демонструють обмежене розуміння операцій з використанням технологій глибокого підроблення.
  • Організаціям важко визначити свою здатність виявляти глибокі фейкові атаки, оскільки 32% їх кількість залишається невизначеною.
  • Більше половини організацій не проводять для своїх співробітників навчання щодо загроз, пов'язаних зі штучним інтелектом.
  • Більшість організацій не мають розроблених планів або спеціальних протоколів для протидії глибоким фейковим загрозам.

Для організацій, які починають долати цей розрив у готовності, такі інструменти, як TruthScan пропонують важливий перший крок. 

Розроблений для виявлення контенту зі штучним інтелектом у режимі реального часу, TruthScan позначає підозрілі візуальні матеріали, текст і медіа в різних форматах, допомагаючи командам виявляти синтетичні маніпуляції до того, як вони завдадуть шкоди. 

Вразливість людського фактору

Дослідження McAfee показує, що 70% людей не можуть відрізнити автентичні голоси від голосових клонів

Проблема загострюється через те, що 40% людей відповідають на голосову пошту, коли думають, що вона належить комусь, кого вони люблять і кому потрібна допомога.

Найнебезпечнішою загрозою для безпеки підприємств на сьогоднішній день є поєднання реалістичного контенту, згенерованого штучним інтелектом, з методами психологічних маніпуляцій.

Технологічний розрив розширюється

Сплеск штучного інтелекту в 1,300%: Новий бізнес-ризик

Мільярдна проблема $40

За прогнозами Deloitte, до 2027 року шахрайство на основі штучного інтелекту сягне 1 трлн 7 млрд 40 млрд доларів у США, тоді як поточна оцінка на 2023 рік становить 1 трлн 7 млрд 12,3 млрд доларів. 

За прогнозами, річний темп зростання за цей період досягне 32%.

Економічний вплив включає в себе:

  • Безпосередні фінансові збитки виникають через синтетичні шахрайські дії.
  • Відбувається крадіжка особистих даних, а також зловживання розширеною персональною інформацією.
  • Бізнес-операції зазнають перебоїв через час, необхідний для проведення судово-медичної експертизи.
  • Підприємства повинні сплачувати регуляторні штрафи через те, що вони не вживають належних заходів щодо захисту даних.
  • Після того, як інформація про компанію стає доступною для громадськості, її репутація зазнає незворотної шкоди.

Контакт-центри в зоні ризику

До 2025 року кількість випадків шахрайства в роздрібній торгівлі сягне одного на кожні 56 звернень до служби підтримки клієнтів. Криза контакт-центрів поглиблюватиметься, оскільки шахрайство з використанням штучного інтелекту зростатиме у великих обсягах.

Уряди починають реагувати

У США

  • Федеральна торгова комісія встановила нові правила, які забороняють користувачам використовувати програмне забезпечення для імітації голосу.
  • ФБР попереджає громадськість про фішингові атаки, які використовують технологію штучного інтелекту.
  • Кілька американських штатів ухвалили нове законодавство, спрямоване на регулювання технологій глибокого підроблення.

У глобальному масштабі

  • Закон ЄС про штучний інтелект вимагає, щоб увесь контент, створений штучним інтелектом, мав очевидні ознаки того, що його було створено штучним інтелектом.
  • Кілька країн розробили міжнародні угоди, які дозволяють їм застосовувати свої закони в різних країнах.
  • Платформи штучного інтелекту повинні продемонструвати, що їхні системи мають заходи для запобігання несанкціонованому використанню їхніх технологій.

Можливість дотримання вимог

Організації, які впроваджують передові системи виявлення шахрайства зі штучним інтелектом вже сьогодні, стануть лідерами ринку. 

Організації будуть відповідати новим правилам раніше за інших, тому що їхні конкуренти повинні витратити час, щоб наздогнати їх.

Нова парадигма безпеки

Сплеск штучного інтелекту в 1,300%: Новий бізнес-ризик

Зростання кількості фейкових атак 1300% перетворило цифрові довірчі операції на щось більше, ніж просто питання кібербезпеки.

Стратегічний зсув:

  • Сучасні загрози переросли існуючі системи захисту периметра, які більше не забезпечують належного захисту.
  • Експерти з безпеки, які провели роки у своїй галузі, тепер стикаються з глибокими фейковими атаками, від яких вони не можуть захиститися.
  • Нинішній підхід "довіряй, але перевіряй" більше не є ефективним, оскільки перевірка має стати постійною оперативною процедурою.
  • Необхідно розгортати системи виявлення в режимі реального часу, оскільки ручні методи виявлення не можуть виявити загрози до того, як вони стануть загрозами.

Майбутнє належить підготовленим

Організаціям потрібно обирати між негайним розгортанням систем виявлення ШІ, щоб зупинити шахрайство з використанням глибоких підробок і не дати йому досягти прогнозованого зростання в 155% у 2025 році, і ризиком публічного розкриття своїх систем.

Організації, які діють зараз, захистять своє фінансове здоров'я, одночасно будуючи системи довіри, які забезпечать їхню позицію лідера на майбутньому ринку, заснованому на штучному інтелекті.

Компанії, які першими виявили загрози ШІ та швидко впровадили рішення, досягнуть успіху в битві ШІ проти штучного інтелекту.

Посилання

  1. Pindrop (12 червня 2025): "Звіт Піндропа про голосову розвідку та безпеку у 2025 році" - 1 300% сплеск фейкового шахрайства, дані аналізу дзвінків
  2. Unite.AI (20 годин тому): "Підробки та голосові клони підживлюють 148% сплеск шахрайства з використанням штучного інтелекту" - статистика Identity Theft Resource Center
  3. Група-IB (6 серпня 2025 року): "Анатомія підробленої голосової фішингової атаки" - Азійсько-Тихоокеанський сплеск 194%, дані про фінансові наслідки
  4. J.P. Morgan (2025): "Шахрайство зі штучним інтелектом, глибокі підробки, імітації" - $16,6 млрд збитків від шахрайства, зростання на 33%
  5. Інкод (20 грудня 2024 року): "Топ-5 випадків шахрайства з використанням штучного інтелекту з 2024 року" - опитування керівників Deloitte, деталі справи WPP
  6. Eftsure US (2025): "Глибоко підроблена статистика (2025): 25 нових фактів для фінансових директорів" - прогалини в навчанні, статистика довіри співробітників
  7. Security.org (26 серпня 2025): "2024 Deepfakes Guide and Statistics" - статистика жертв голосового клонування, регуляторний ландшафт
  8. Американська асоціація юристів (2025): "Що фейкові афери вчать нас про штучний інтелект і шахрайство" - кейс Бреда Пітта, юридичні наслідки
  9. Axios (15 березня 2025 року): "Шахрайство з голосовим клонуванням ШІ: Постійна загроза" - дослідження Consumer Reports, дані ФТК про імітацію

Copyright © 2025 TruthScan. Всі права захищені