El auge de la suplantación de identidad de 1.300%: Un nuevo riesgo empresarial

Las actividades fraudulentas basadas en Deepfake en el mundo empresarial experimentaron un enorme auge a lo largo de los últimos doce meses. 

En Informe de Pindrop sobre inteligencia y seguridad de voz para 2025 revela que los ataques basados en la voz se han disparado hasta 1300% más que su incidencia mensual anterior, ya que ahora se producen siete veces al día. 

La investigación de 1.200 millones de llamadas de clientes a través del informe demuestra que este desarrollo representa algo más que el crecimiento estándar de la ciberdelincuencia, ya que significa un cambio completo en los métodos operativos del fraude.

El patrón de crecimiento no muestra indicios de seguir una senda de desarrollo gradual. El rápido ritmo de esta perturbación ha llevado a una transformación completa de los sistemas económicos basados en la confianza.

Múltiples estadísticas muestran la magnitud de esta crisis en desarrollo. 

El Centro de Recursos contra el Robo de Identidad registró un aumento del 148% en estafas de suplantación de identidad durante el periodo comprendido entre abril de 2024 y marzo de 2025. 

El importe total de las pérdidas por fraude durante 2024 alcanzó los 1.600 millones de euros, lo que supone un aumento de 331.600 millones con respecto a las cifras de 2023. 

Los avances de la tecnología de IA han convertido el engaño en una operación industrial que lleva a cabo sus actividades a nivel industrial.

Exposición a nivel ejecutivo

Los ataques de deepfake financiero han tenido como objetivo más de 25% de sistemas ejecutivos que gestionan operaciones financieras y contables. 

El número de ejecutivos que predicen que los ataques financieros deepfake aumentarán en el próximo año ha alcanzado más de 50%.

Anatomía de un ataque industrializado

Clonación de voz: De minutos a momentos

En los últimos años, los modelos de voz de IA han experimentado un desarrollo excepcional. 

El software gratuito básico permite a los usuarios crear voces sintéticas mediante breves grabaciones de voz que antes requerían mucho material de audio y herramientas especializadas que necesitaban varios días para completarse. 

La salida de voz artificial iguala la calidad natural de las vocalizaciones humanas.

Detección de IA Detección de IA

No vuelva a preocuparse por el fraude de IA. TruthScan puede ayudarle:

  • Detectar IA generada imágenes, texto, voz y vídeo.
  • Evite grandes fraudes impulsados por la IA.
  • Proteja sus sensible activos de la empresa.
Pruébalo GRATIS

Impacto por sector:

  • En el sector de los seguros, los ataques de voz sintética aumentaron en 475% durante este periodo.
  • El sector bancario registró un aumento de 149% en las actividades fraudulentas basadas en la voz.
  • En los próximos cinco años, los centros de contacto experimentarán pérdidas potenciales por fraude por valor de $44.500 millones.
  • Los incidentes de seguridad cuestan a las empresas una media de $600.000 por incidente.
El auge de la suplantación de identidad de 1.300%: Un nuevo riesgo empresarial

La nueva cara del fraude: Sofisticado y pulido

Los estafadores emplean ahora ataques deepfake avanzados que superan a los correos electrónicos de estafa básicos porque sus ataques tienen una gramática impecable y aparecen en momentos oportunos con un aspecto extremadamente auténtico. 

Estos ataques burlan tanto los sistemas de seguridad programados como los procesos de juicio humano.

Estudio de caso: WPP estuvo a punto de fallar

Los delincuentes intentaron ejecutar un elaborado plan de fraude mediante la creación de una cuenta falsa de WhatsApp con el nombre del consejero delegado de WPP, combinando un clon de voz que imitaba la voz de Mark Read con la reproducción de vídeos de YouTube con expresiones faciales falsas con el nombre de Mark Read y utilizando vídeos grabados de dominios públicos. 

Los atacantes llevaron a cabo su ataque a través de Microsoft Teams y enviaron mensajes falsos convincentes mediante métodos de suplantación de identidad y tácticas de ingeniería social para crear una falsa sensación de urgencia empresarial.

Los atacantes llegaron a un punto en el que casi lograron su objetivo. 

El engaño de los agresores no tuvo éxito porque introdujeron pequeñas incoherencias en su relato que hicieron que la víctima cuestionara su historia. 

El incidente demostró que las técnicas avanzadas de engaño de la IA pueden engañar incluso a profesionales experimentados debido a su naturaleza realista e intrincada.

Asia-Pacífico: El punto caliente mundial

El auge de la suplantación de identidad de 1.300%: Un nuevo riesgo empresarial

La zona Asia-Pacífico se ha convertido en el centro mundial de las actividades fraudulentas basadas en IA. El número de ataques relacionados con la IA durante 2024 aumentó en 194% en comparación con 2023.

¿Por qué aquí? La rápida adopción de los pagos digitales, combinada con unos sistemas de protección contra el fraude insuficientes en la región, la convierten en un entorno perfecto para que operen los atacantes.

Datos regionales clave:

  • La pérdida financiera media de cada siniestro asciende a $600.000.
  • La recuperación de fondos robados se mantiene por debajo de 5% en todos los casos.
  • Las pérdidas financieras relacionadas con Deepfake, superiores a $1 millones, afectaron a más de 10% de instituciones financieras.

La región es un objetivo importante para el fraude basado en IA porque los empleados trabajan a distancia y las herramientas de síntesis de voz son fácilmente accesibles.

Más allá de la voz: El fraude multivectorial ya está aquí

Una oleada de ataques de intercambio de caras 704%

El número de ataques de intercambio de caras aumentó en 704% durante 2023 según iProov, mientras que el fraude de inyección web móvil creció en 255%. 

El número total de intentos de fraude incluye ahora 42,5% de intentos generados por IA, que tienen éxito en 30% de los casos.

Los incidentes de seguridad notificados demuestran una evolución constante de las amenazas que afectan a distintos sistemas.

Matriz de vulnerabilidad de la empresa

  • El sector minorista experimentó un aumento del 107% en actividades fraudulentas durante 2024 y los expertos prevén que los casos de fraude se dupliquen en 2025.
  • Los atacantes utilizan deepfakes para eludir los sistemas de verificación de identidad que protegen los procesos KYC.
  • Los sistemas de inteligencia artificial producen perfiles faciales artificiales que consiguen engañar a los sistemas de reconocimiento facial.
  • Los atacantes utilizan contenido sintético para generar documentos legales y credenciales engañosas mediante métodos de falsificación de documentos.

El caso Brad Pitt: Fraude psicológico con IA

Un diseñador de interiores francés fue víctima de una sofisticada estafa de inteligencia artificial al transferir casi $1 millón a unos estafadores durante varios meses.

La estrategia de ataque:

  • El impostor contactó inicialmente con la víctima haciéndose pasar por la madre de Brad Pitt.
  • El audio Deepfake y las imágenes generadas por IA ayudaron a mantener la ilusión a lo largo del tiempo.
  • Los historiales médicos falsos y los documentos de apariencia legal añadían credibilidad a la trama.
  • El contenido multimedia mantuvo la falsa identidad creíble durante varios meses.

Una persona que no era nueva en tecnología fue víctima de una estafa directa. 

La víctima operaba como un empresario que ignoraba que interactuaba con inteligencia artificial. 

El incidente demuestra el avanzado nivel de engaño que puede alcanzar la moderna tecnología deepfake.

La brecha de la detección: por qué la mayoría de las empresas no están preparadas

Una crisis de concienciación en la cumbre

Las organizaciones luchan por protegerse de los crecientes ataques porque no han desarrollado suficientes estrategias de defensa.

  • Los dirigentes de 25% de las organizaciones muestran un conocimiento limitado de las operaciones tecnológicas de deepfake.
  • Las organizaciones luchan por determinar su capacidad para detectar ataques deepfake porque 32% de ellos siguen siendo inciertos.
  • Más de la mitad de las organizaciones no proporcionan a su personal formación sobre las amenazas basadas en la IA.
  • La mayoría de las organizaciones no tienen planes establecidos ni protocolos específicos para hacer frente a las amenazas de deepfake.

Para las organizaciones que empiezan a cerrar esa brecha de preparación, herramientas como TruthScan ofrecen un primer paso fundamental. 

Diseñado para la detección de contenidos de IA en tiempo real, TruthScan señala imágenes, texto y medios sospechosos en múltiples formatos, ayudando a los equipos a detectar manipulaciones sintéticas antes de que causen daños. 

La vulnerabilidad del factor humano

Las investigaciones de McAfee muestran que 70% de las personas no distinguen entre voces auténticas y clones de voz

El problema se agrava porque 40% de las personas responderían a un mensaje de voz cuando creen que pertenece a un ser querido que necesita ayuda.

La amenaza actual más peligrosa para la seguridad de las empresas surge de la combinación de contenidos realistas generados por IA con técnicas de manipulación psicológica.

La brecha tecnológica es cada vez mayor

El auge de la suplantación de identidad de 1.300%: Un nuevo riesgo empresarial

El problema de los $40.000 millones

Deloitte predice que el fraude basado en IA alcanzará los $40.000 millones en Estados Unidos en 2027, mientras que la estimación actual para 2023 se sitúa en $12.300 millones. 

Según las proyecciones, la tasa de crecimiento anual para este periodo alcanzará los 32%.

El impacto económico incluye:

  • El daño financiero inmediato se produce a través de actividades de fraude sintético.
  • Se producen robos de identidades personales junto con el uso indebido de información personal ampliada.
  • Las operaciones comerciales sufren interrupciones debido al tiempo necesario para la investigación forense.
  • Las empresas deben pagar sanciones reglamentarias por no aplicar medidas adecuadas de protección de datos.
  • Las empresas sufren un daño permanente a su reputación cuando su información se hace pública.

Centros de contacto en peligro

El número de casos de fraude en el sector minorista alcanzará una de cada 56 llamadas de atención al cliente en 2025. La crisis de los centros de contacto empeorará porque las actividades fraudulentas impulsadas por IA aumentarán en grandes volúmenes.

Los gobiernos empiezan a reaccionar

En Estados Unidos

  • La Comisión Federal de Comercio estableció nuevas normas que impiden a los usuarios emplear programas informáticos de suplantación de voz.
  • El FBI alerta ahora al público sobre los ataques de phishing que utilizan tecnología de inteligencia artificial.
  • Varios estados norteamericanos han promulgado nuevas leyes centradas en la regulación de la tecnología deepfake.

En todo el mundo

  • La Ley de IA de la UE exige que todos los contenidos generados por IA muestren signos evidentes de que han sido producidos por inteligencia artificial.
  • Varias naciones han desarrollado acuerdos internacionales que les permiten aplicar sus leyes en distintos países.
  • Las plataformas de IA deben demostrar que sus sistemas cuentan con medidas para impedir el uso no autorizado de su tecnología.

La oportunidad del cumplimiento

Las organizaciones que implanten hoy sistemas avanzados de detección del fraude mediante IA se consolidarán como líderes del mercado. 

Las organizaciones cumplirán las próximas normativas antes que los demás porque sus competidores deben dedicar tiempo a ponerse al día.

Un nuevo paradigma de seguridad

El auge de la suplantación de identidad de 1.300%: Un nuevo riesgo empresarial

El 1300% aumento de los ataques deepfake ha transformado las operaciones de confianza digital en algo más que un asunto de ciberseguridad.

El cambio estratégico:

  • Las amenazas modernas han superado a los actuales sistemas de defensa perimetral, que ya no proporcionan una protección adecuada.
  • Expertos en seguridad que llevan años en su campo experimentan ahora ataques deepfake contra los que no pueden defenderse.
  • El enfoque actual de "confiar pero verificar" ya no es eficaz porque la verificación debe convertirse en un procedimiento operativo permanente.
  • Es necesario desplegar sistemas de detección en tiempo real porque los métodos de detección manual no pueden detectar las amenazas antes de que se conviertan en tales.

El futuro pertenece a los preparados

Las organizaciones deben elegir entre desplegar sistemas de detección de IA de inmediato para evitar que el fraude de deepfake alcance su crecimiento previsto de 155% en 2025 o arriesgarse a la divulgación pública de sus sistemas.

Las organizaciones que actúen ahora defenderán su salud financiera al tiempo que crean sistemas de confianza que asegurarán su posición como líderes en el futuro mercado basado en la IA.

Las empresas que detecten primero las amenazas de la IA y desplieguen soluciones rápidamente triunfarán en la batalla IA contra IA.

Referencias

  1. Pindrop (12 de junio de 2025): "Pindrop's 2025 Voice Intelligence & Security Report" - 1.300% aumento del fraude por deepfake, datos de análisis de llamadas
  2. Unite.AI (hace 20 horas): "Deepfakes, Voice Clones Fuel 148% Surge in AI Impersonation Scams" - Identity Theft Resource Center statistics
  3. Grupo-IB (6 de agosto de 2025): "The Anatomy of a Deepfake Voice Phishing Attack" - Asia-Pacific 194% surge, datos de impacto financiero
  4. J.P. Morgan (2025): "Estafas con IA, falsificaciones profundas, suplantaciones" - $16.600 millones de pérdidas por fraude, aumento del 33%
  5. Incode (20 de diciembre de 2024): "Los 5 principales casos de fraude de IA Deepfake a partir de 2024" - encuesta a ejecutivos de Deloitte, detalles del caso WPP.
  6. Eftsure US (2025): "Estadísticas Deepfake (2025): 25 new facts for CFOs" - Lagunas en la formación, estadísticas sobre la confianza de los empleados
  7. Security.org (26 de agosto de 2025): "2024 Deepfakes Guide and Statistics" - Estadísticas de víctimas de clonación de voz, panorama normativo
  8. Asociación Americana de Abogados (2025): "Lo que las estafas Deepfake nos enseñan sobre IA y fraude" - Estudio del caso Brad Pitt, implicaciones legales.
  9. Axios (15 de marzo de 2025): "Estafas por clonación de voz con IA: Una amenaza persistente" - Estudio de Consumer Reports, datos de suplantación de la FTC

Copyright © 2025 TruthScan. Todos los derechos reservados