O aumento de 1.300% na imitação de IA: Um novo risco comercial

As actividades fraudulentas baseadas no Deepfake no mundo dos negócios registaram um enorme aumento nos últimos doze meses. 

O Relatório de Inteligência e Segurança de Voz 2025 da Pindrop revela que os ataques por voz aumentaram para 1300% mais do que a sua anterior ocorrência mensal, porque agora ocorrem sete vezes por dia. 

A pesquisa de 1,2 mil milhões de chamadas de clientes através do relatório prova que este desenvolvimento representa mais do que o crescimento normal da cibercriminalidade, pois significa uma mudança completa nos métodos operacionais da fraude.

O padrão de crescimento não mostra qualquer indicação de seguir uma trajetória de desenvolvimento gradual. O ritmo acelerado desta rutura conduziu a uma transformação completa dos sistemas económicos baseados na confiança.

Várias estatísticas mostram toda a extensão desta crise em desenvolvimento. 

O Identity Theft Resource Center registou um aumento de 148% nas burlas de falsificação de identidade durante o período de abril de 2024 a março de 2025. 

O montante total das perdas por fraude em 2024 atingiu $16,6 mil milhões, registando um aumento de 33% em relação aos valores de 2023. 

Os avanços tecnológicos da IA transformaram o engano numa operação industrial que conduz as suas actividades a um nível industrial.

Exposição a nível executivo

Os ataques de deepfake financeiro visaram mais de 25% de sistemas executivos que gerem operações financeiras e contabilísticas. 

O número de executivos que prevêem que os ataques financeiros de deepfake irão aumentar no próximo ano atingiu mais de 50%.

Anatomia de um ataque industrializado

Clonagem de voz: De minutos a momentos

Os modelos de fala com IA registaram um crescimento excecional no seu desenvolvimento durante os últimos anos. 

O software básico gratuito permite que os utilizadores criem vozes sintéticas através de gravações de voz curtas, o que costumava exigir material áudio extenso e ferramentas especializadas que demoravam vários dias a concluir. 

A saída de fala artificial corresponde à qualidade natural das vocalizações humanas.

Deteção de IA Deteção de IA

Nunca mais se preocupe com fraudes de IA. TruthScan Pode ajudar-vos:

  • Detetar a IA gerada imagens, texto, voz e vídeo.
  • Evitar grandes fraudes impulsionadas pela IA.
  • Proteja os seus mais sensível activos da empresa.
Experimenta GRATUITAMENTE

Impacto por sector:

  • O sector dos seguros registou um aumento de 475% nos ataques de voz sintética durante este período.
  • O sector bancário registou um aumento de 149% nas actividades fraudulentas baseadas na voz.
  • Nos próximos cinco anos, os centros de contacto sofrerão perdas potenciais de fraude estimadas em $44,5 mil milhões de euros.
  • Os incidentes de segurança custam às empresas uma média de $600.000 por ocorrência.
O aumento de 1.300% na imitação de IA: Um novo risco comercial

A nova face da fraude: Sofisticada e polida

Atualmente, os burlões utilizam ataques avançados de deepfake que ultrapassam as mensagens de correio eletrónico fraudulentas básicas, porque os seus ataques têm uma gramática impecável e aparecem em momentos oportunos, parecendo extremamente autênticos. 

Estes ataques funcionam para contornar tanto os sistemas de segurança programados como os processos de julgamento humano.

Estudo de caso: O quase acidente da WPP

Os criminosos tentaram executar um esquema de fraude elaborado através da criação de uma conta WhatsApp falsa com o nome do CEO da WPP, combinando um clone de voz que imitava a voz de Mark Read com a reprodução de vídeos do YouTube para expressões faciais falsas com o nome de Mark Read, utilizando vídeos gravados de domínios públicos. 

Os atacantes conduziram o seu ataque através do Microsoft Teams e enviaram mensagens falsas convincentes através de métodos de personificação e tácticas de engenharia social para criar uma falsa sensação de urgência comercial.

Os atacantes chegaram a um ponto em que quase conseguiram atingir o seu objetivo. 

O engano dos agressores não foi bem sucedido porque introduziram pequenas inconsistências na sua narrativa que fizeram com que a vítima questionasse a sua história. 

O incidente provou que as técnicas avançadas de engano da IA podem enganar até profissionais experientes devido à sua natureza realista e complexa.

Ásia-Pacífico: O ponto de acesso global

O aumento de 1.300% na imitação de IA: Um novo risco comercial

A região da Ásia-Pacífico tornou-se o centro mundial de atividades fraudulentas baseadas na IA. O número de ataques relacionados com a IA durante 2024 aumentou 194% em comparação com 2023.

Porquê aqui? A rápida adoção de pagamentos digitais, combinada com a insuficiência de sistemas de proteção contra a fraude na região, tornou-a um ambiente perfeito para os atacantes operarem.

Principais dados regionais:

  • O prejuízo financeiro médio de cada incidente ascende a $600.000.
  • A recuperação de fundos roubados continua a ser inferior a 5% em todos os casos.
  • As perdas financeiras relacionadas com o Deepfake superiores a $1 milhões afectaram mais de 10% de instituições financeiras.

A região é um alvo importante para a fraude baseada em IA, porque os funcionários trabalham remotamente e as ferramentas de síntese de voz são facilmente acessíveis.

Para além da voz: A fraude multi-vetorial está aqui

Um aumento de 704% nos ataques de troca de faces

O número de ataques de troca de rosto aumentou 704% durante 2023, de acordo com a iProov, enquanto a fraude de injeção na Web móvel cresceu 255%. 

O número total de tentativas de fraude inclui agora 42,5% de tentativas geradas pela IA, que são bem sucedidas em 30% dos casos.

Os incidentes de segurança comunicados demonstram uma evolução contínua das ameaças que afectam diferentes sistemas.

A matriz de vulnerabilidade da empresa

  • O sector do retalho registou um aumento de 107% nas actividades fraudulentas durante 2024 e os especialistas prevêem que os casos de fraude duplicarão em 2025.
  • Os atacantes utilizam deepfakes para contornar os sistemas de verificação de ID que protegem contra os processos KYC.
  • Os sistemas de inteligência artificial produzem perfis faciais artificiais que conseguem enganar os sistemas de reconhecimento facial.
  • Os atacantes utilizam conteúdos sintéticos para gerar documentos legais e credenciais enganosas através de métodos de falsificação de documentos.

O caso Brad Pitt: Fraude psicológica com recurso à IA

Um designer de interiores francês foi vítima de uma sofisticada burla de IA ao transferir quase $1 milhões para os burlões durante vários meses.

A estratégia de ataque:

  • O impostor começou por contactar a vítima fazendo-se passar pela mãe de Brad Pitt.
  • O áudio deepfake e as imagens geradas por IA ajudaram a manter a ilusão ao longo do tempo.
  • Registos médicos falsos e documentos de aparência legal acrescentavam uma camada de credibilidade ao esquema.
  • O conteúdo multimédia manteve a falsa identidade credível durante vários meses.

Uma pessoa que não era nova no mundo da tecnologia foi vítima de uma burla simples. 

A vítima era um empresário que não sabia que estava a interagir com inteligência artificial. 

O incidente demonstra o nível avançado de engano que a moderna tecnologia deepfake pode alcançar.

A lacuna de deteção: porque é que a maioria das empresas não está preparada

Uma crise de consciencialização no topo

As organizações lutam para se protegerem dos crescentes ataques porque não desenvolveram estratégias de defesa suficientes.

  • Os líderes de 25% das organizações mostram um conhecimento limitado sobre as operações da tecnologia deepfake.
  • As organizações lutam para determinar a sua capacidade de detetar ataques de deepfake porque 32% deles permanecem incertos.
  • Mais de metade das organizações não dá formação aos seus funcionários sobre ameaças baseadas em IA.
  • A maioria das organizações não tem planos estabelecidos ou protocolos específicos para lidar com ameaças de deepfake.

Para as organizações que estão a começar a colmatar essa lacuna de preparação, ferramentas como TruthScan constituem um primeiro passo fundamental. 

Concebido para a deteção de conteúdos de IA em tempo real, o TruthScan assinala imagens, textos e suportes suspeitos em vários formatos, ajudando as equipas a detetar a manipulação sintética antes que esta cause danos. 

A vulnerabilidade do fator humano

A pesquisa da McAfee mostra que 70% das pessoas não conseguem distinguir entre vozes autênticas e clones de voz

O problema agrava-se porque 40% das pessoas respondem a uma mensagem de voz quando pensam que pertence a alguém que amam e que precisa de ajuda.

A atual ameaça mais perigosa para a segurança das empresas surge da combinação de conteúdos realistas gerados por IA com técnicas de manipulação psicológica.

O fosso tecnológico está a aumentar

O aumento de 1.300% na imitação de IA: Um novo risco comercial

O problema dos $40 mil milhões

A Deloitte prevê que a fraude baseada na IA atingirá $40 mil milhões nos Estados Unidos até 2027, enquanto a estimativa atual para 2023 é de $12,3 mil milhões. 

De acordo com as projecções, a taxa de crescimento anual para este período atingirá 32%.

O impacto económico inclui:

  • O prejuízo financeiro imediato ocorre através de actividades de fraude sintética.
  • Ocorre o roubo de identidades pessoais e a utilização indevida de informações pessoais.
  • As operações comerciais sofrem interrupções devido ao tempo necessário para a investigação forense.
  • As empresas têm de pagar sanções regulamentares por não aplicarem medidas adequadas de proteção de dados.
  • As empresas sofrem danos permanentes na sua reputação depois de as suas informações serem divulgadas ao público.

Centros de contacto em risco

O número de casos de fraude no retalho atingirá uma em cada 56 chamadas de serviço ao cliente até 2025. A crise dos centros de contacto irá agravar-se porque as actividades fraudulentas alimentadas por IA irão aumentar em grandes volumes.

Os governos estão a começar a responder

Nos Estados Unidos.

  • A Federal Trade Commission estabeleceu novas regras que impedem os utilizadores de utilizar software de imitação de voz.
  • O FBI alerta agora o público para os ataques de phishing que utilizam tecnologia de inteligência artificial.
  • Vários estados americanos promulgaram nova legislação que se centra na regulação da tecnologia deepfake.

A nível mundial

  • A Lei da IA da UE exige que todos os conteúdos gerados por IA mostrem sinais óbvios de que foram produzidos por inteligência artificial.
  • Várias nações desenvolveram acordos internacionais que lhes permitem aplicar as suas leis em diferentes países.
  • As plataformas de IA devem demonstrar que os seus sistemas têm medidas para impedir a utilização não autorizada da sua tecnologia.

A oportunidade de conformidade

As organizações que implementarem hoje sistemas avançados de deteção de fraudes com IA estabelecer-se-ão como líderes de mercado. 

As organizações cumprirão as regulamentações futuras antes das outras, porque os seus concorrentes têm de perder tempo a recuperar o atraso.

Um novo paradigma de segurança

O aumento de 1.300% na imitação de IA: Um novo risco comercial

O aumento 1300% dos ataques de deepfake transformou as operações de confiança digital em algo mais do que uma mera questão de cibersegurança.

A mudança estratégica:

  • As ameaças modernas ultrapassaram os actuais sistemas de defesa perimetral, que já não oferecem uma proteção adequada.
  • Os especialistas em segurança que passaram anos na sua área sofrem agora ataques de deepfake contra os quais não se conseguem defender.
  • A atual abordagem "confiar mas verificar" já não é eficaz porque a verificação tem de se tornar um procedimento operacional permanente.
  • É necessário implementar sistemas de deteção em tempo real porque os métodos de deteção manual não conseguem detetar as ameaças antes de estas se tornarem ameaças.

O futuro pertence a quem está preparado

As organizações têm de escolher entre implementar sistemas de deteção de IA de imediato para impedir que a fraude deepfake atinja o crescimento previsto de 155% em 2025 ou arriscar a divulgação pública dos seus sistemas.

As organizações que actuarem agora defenderão a sua saúde financeira e, ao mesmo tempo, criarão sistemas de confiança que garantirão a sua posição como líderes no futuro mercado baseado na IA.

As empresas que detetarem primeiro as ameaças da IA e implementarem soluções rapidamente serão bem-sucedidas na batalha entre a IA e a IA.

Referências

  1. Pindrop (12 de junho de 2025): "Pindrop's 2025 Voice Intelligence & Security Report" - 1,300% aumento da fraude deepfake, dados de análise de chamadas
  2. Unite.AI (há 20 horas): "Deepfakes, Voice Clones Fuel 148% Surge in AI Impersonation Scams" - Estatísticas do Identity Theft Resource Center
  3. Grupo-IB (6 de agosto de 2025): "The Anatomy of a Deepfake Voice Phishing Attack" - Asia-Pacific 194% surge, dados sobre o impacto financeiro
  4. J.P. Morgan (2025): "Fraudes de IA, falsificações profundas, imitações" - $16,6 mil milhões de perdas com fraudes, aumento de 33%
  5. Incode (20 de dezembro de 2024): "Top 5 Cases of AI Deepfake Fraud From 2024" - inquérito executivo da Deloitte, detalhes do caso WPP
  6. Eftsure US (2025): "Estatísticas Deepfake (2025): 25 novos factos para os diretores financeiros" - Lacunas na formação, estatísticas sobre a confiança dos trabalhadores
  7. Security.org (26 de agosto de 2025): "2024 Deepfakes Guide and Statistics" - Estatísticas de vítimas de clonagem de voz, panorama regulamentar
  8. Ordem dos Advogados Americana (2025): "What Deepfake Scams Teach Us About AI and Fraud" - Estudo de caso de Brad Pitt, implicações jurídicas
  9. Axios (15 de março de 2025): "Fraudes de clonagem de voz por IA: Uma ameaça persistente" - Estudo da Consumer Reports, dados da FTC sobre falsificação de identidade

Direitos autorais © 2025 TruthScan. Todos os direitos reservados