As actividades fraudulentas baseadas no Deepfake no mundo dos negócios registaram um enorme aumento nos últimos doze meses.
O Relatório de Inteligência e Segurança de Voz 2025 da Pindrop revela que os ataques por voz aumentaram para 1300% mais do que a sua anterior ocorrência mensal, porque agora ocorrem sete vezes por dia.
A pesquisa de 1,2 mil milhões de chamadas de clientes através do relatório prova que este desenvolvimento representa mais do que o crescimento normal da cibercriminalidade, pois significa uma mudança completa nos métodos operacionais da fraude.
O padrão de crescimento não mostra qualquer indicação de seguir uma trajetória de desenvolvimento gradual. O ritmo acelerado desta rutura conduziu a uma transformação completa dos sistemas económicos baseados na confiança.
Várias estatísticas mostram toda a extensão desta crise em desenvolvimento.
O Identity Theft Resource Center registou um aumento de 148% nas burlas de falsificação de identidade durante o período de abril de 2024 a março de 2025.
O montante total das perdas por fraude em 2024 atingiu $16,6 mil milhões, registando um aumento de 33% em relação aos valores de 2023.
Os avanços tecnológicos da IA transformaram o engano numa operação industrial que conduz as suas actividades a um nível industrial.
Exposição a nível executivo
Os ataques de deepfake financeiro visaram mais de 25% de sistemas executivos que gerem operações financeiras e contabilísticas.
O número de executivos que prevêem que os ataques financeiros de deepfake irão aumentar no próximo ano atingiu mais de 50%.
Anatomia de um ataque industrializado
Clonagem de voz: De minutos a momentos
Os modelos de fala com IA registaram um crescimento excecional no seu desenvolvimento durante os últimos anos.
O software básico gratuito permite que os utilizadores criem vozes sintéticas através de gravações de voz curtas, o que costumava exigir material áudio extenso e ferramentas especializadas que demoravam vários dias a concluir.
A saída de fala artificial corresponde à qualidade natural das vocalizações humanas.
Nunca mais se preocupe com fraudes de IA. TruthScan Pode ajudar-vos:
- Detetar a IA gerada imagens, texto, voz e vídeo.
- Evitar grandes fraudes impulsionadas pela IA.
- Proteja os seus mais sensível activos da empresa.
Impacto por sector:
- O sector dos seguros registou um aumento de 475% nos ataques de voz sintética durante este período.
- O sector bancário registou um aumento de 149% nas actividades fraudulentas baseadas na voz.
- Nos próximos cinco anos, os centros de contacto sofrerão perdas potenciais de fraude estimadas em $44,5 mil milhões de euros.
- Os incidentes de segurança custam às empresas uma média de $600.000 por ocorrência.

A nova face da fraude: Sofisticada e polida
Atualmente, os burlões utilizam ataques avançados de deepfake que ultrapassam as mensagens de correio eletrónico fraudulentas básicas, porque os seus ataques têm uma gramática impecável e aparecem em momentos oportunos, parecendo extremamente autênticos.
Estes ataques funcionam para contornar tanto os sistemas de segurança programados como os processos de julgamento humano.
Estudo de caso: O quase acidente da WPP
Os criminosos tentaram executar um esquema de fraude elaborado através da criação de uma conta WhatsApp falsa com o nome do CEO da WPP, combinando um clone de voz que imitava a voz de Mark Read com a reprodução de vídeos do YouTube para expressões faciais falsas com o nome de Mark Read, utilizando vídeos gravados de domínios públicos.
Os atacantes conduziram o seu ataque através do Microsoft Teams e enviaram mensagens falsas convincentes através de métodos de personificação e tácticas de engenharia social para criar uma falsa sensação de urgência comercial.
Os atacantes chegaram a um ponto em que quase conseguiram atingir o seu objetivo.
O engano dos agressores não foi bem sucedido porque introduziram pequenas inconsistências na sua narrativa que fizeram com que a vítima questionasse a sua história.
O incidente provou que as técnicas avançadas de engano da IA podem enganar até profissionais experientes devido à sua natureza realista e complexa.
Ásia-Pacífico: O ponto de acesso global

A região da Ásia-Pacífico tornou-se o centro mundial de atividades fraudulentas baseadas na IA. O número de ataques relacionados com a IA durante 2024 aumentou 194% em comparação com 2023.
Porquê aqui? A rápida adoção de pagamentos digitais, combinada com a insuficiência de sistemas de proteção contra a fraude na região, tornou-a um ambiente perfeito para os atacantes operarem.
Principais dados regionais:
- O prejuízo financeiro médio de cada incidente ascende a $600.000.
- A recuperação de fundos roubados continua a ser inferior a 5% em todos os casos.
- As perdas financeiras relacionadas com o Deepfake superiores a $1 milhões afectaram mais de 10% de instituições financeiras.
A região é um alvo importante para a fraude baseada em IA, porque os funcionários trabalham remotamente e as ferramentas de síntese de voz são facilmente acessíveis.
Para além da voz: A fraude multi-vetorial está aqui
Um aumento de 704% nos ataques de troca de faces
O número de ataques de troca de rosto aumentou 704% durante 2023, de acordo com a iProov, enquanto a fraude de injeção na Web móvel cresceu 255%.
O número total de tentativas de fraude inclui agora 42,5% de tentativas geradas pela IA, que são bem sucedidas em 30% dos casos.
Os incidentes de segurança comunicados demonstram uma evolução contínua das ameaças que afectam diferentes sistemas.
A matriz de vulnerabilidade da empresa
- O sector do retalho registou um aumento de 107% nas actividades fraudulentas durante 2024 e os especialistas prevêem que os casos de fraude duplicarão em 2025.
- Os atacantes utilizam deepfakes para contornar os sistemas de verificação de ID que protegem contra os processos KYC.
- Os sistemas de inteligência artificial produzem perfis faciais artificiais que conseguem enganar os sistemas de reconhecimento facial.
- Os atacantes utilizam conteúdos sintéticos para gerar documentos legais e credenciais enganosas através de métodos de falsificação de documentos.
O caso Brad Pitt: Fraude psicológica com recurso à IA
Um designer de interiores francês foi vítima de uma sofisticada burla de IA ao transferir quase $1 milhões para os burlões durante vários meses.
A estratégia de ataque:
- O impostor começou por contactar a vítima fazendo-se passar pela mãe de Brad Pitt.
- O áudio deepfake e as imagens geradas por IA ajudaram a manter a ilusão ao longo do tempo.
- Registos médicos falsos e documentos de aparência legal acrescentavam uma camada de credibilidade ao esquema.
- O conteúdo multimédia manteve a falsa identidade credível durante vários meses.
Uma pessoa que não era nova no mundo da tecnologia foi vítima de uma burla simples.
A vítima era um empresário que não sabia que estava a interagir com inteligência artificial.
O incidente demonstra o nível avançado de engano que a moderna tecnologia deepfake pode alcançar.
A lacuna de deteção: porque é que a maioria das empresas não está preparada
Uma crise de consciencialização no topo
As organizações lutam para se protegerem dos crescentes ataques porque não desenvolveram estratégias de defesa suficientes.
- Os líderes de 25% das organizações mostram um conhecimento limitado sobre as operações da tecnologia deepfake.
- As organizações lutam para determinar a sua capacidade de detetar ataques de deepfake porque 32% deles permanecem incertos.
- Mais de metade das organizações não dá formação aos seus funcionários sobre ameaças baseadas em IA.
- A maioria das organizações não tem planos estabelecidos ou protocolos específicos para lidar com ameaças de deepfake.
Para as organizações que estão a começar a colmatar essa lacuna de preparação, ferramentas como TruthScan constituem um primeiro passo fundamental.
Concebido para a deteção de conteúdos de IA em tempo real, o TruthScan assinala imagens, textos e suportes suspeitos em vários formatos, ajudando as equipas a detetar a manipulação sintética antes que esta cause danos.
A vulnerabilidade do fator humano
A pesquisa da McAfee mostra que 70% das pessoas não conseguem distinguir entre vozes autênticas e clones de voz.
O problema agrava-se porque 40% das pessoas respondem a uma mensagem de voz quando pensam que pertence a alguém que amam e que precisa de ajuda.
A atual ameaça mais perigosa para a segurança das empresas surge da combinação de conteúdos realistas gerados por IA com técnicas de manipulação psicológica.
O fosso tecnológico está a aumentar

O problema dos $40 mil milhões
A Deloitte prevê que a fraude baseada na IA atingirá $40 mil milhões nos Estados Unidos até 2027, enquanto a estimativa atual para 2023 é de $12,3 mil milhões.
De acordo com as projecções, a taxa de crescimento anual para este período atingirá 32%.
O impacto económico inclui:
- O prejuízo financeiro imediato ocorre através de actividades de fraude sintética.
- Ocorre o roubo de identidades pessoais e a utilização indevida de informações pessoais.
- As operações comerciais sofrem interrupções devido ao tempo necessário para a investigação forense.
- As empresas têm de pagar sanções regulamentares por não aplicarem medidas adequadas de proteção de dados.
- As empresas sofrem danos permanentes na sua reputação depois de as suas informações serem divulgadas ao público.
Centros de contacto em risco
O número de casos de fraude no retalho atingirá uma em cada 56 chamadas de serviço ao cliente até 2025. A crise dos centros de contacto irá agravar-se porque as actividades fraudulentas alimentadas por IA irão aumentar em grandes volumes.
Os governos estão a começar a responder
Nos Estados Unidos.
- A Federal Trade Commission estabeleceu novas regras que impedem os utilizadores de utilizar software de imitação de voz.
- O FBI alerta agora o público para os ataques de phishing que utilizam tecnologia de inteligência artificial.
- Vários estados americanos promulgaram nova legislação que se centra na regulação da tecnologia deepfake.
A nível mundial
- A Lei da IA da UE exige que todos os conteúdos gerados por IA mostrem sinais óbvios de que foram produzidos por inteligência artificial.
- Várias nações desenvolveram acordos internacionais que lhes permitem aplicar as suas leis em diferentes países.
- As plataformas de IA devem demonstrar que os seus sistemas têm medidas para impedir a utilização não autorizada da sua tecnologia.
A oportunidade de conformidade
As organizações que implementarem hoje sistemas avançados de deteção de fraudes com IA estabelecer-se-ão como líderes de mercado.
As organizações cumprirão as regulamentações futuras antes das outras, porque os seus concorrentes têm de perder tempo a recuperar o atraso.
Um novo paradigma de segurança

O aumento 1300% dos ataques de deepfake transformou as operações de confiança digital em algo mais do que uma mera questão de cibersegurança.
A mudança estratégica:
- As ameaças modernas ultrapassaram os actuais sistemas de defesa perimetral, que já não oferecem uma proteção adequada.
- Os especialistas em segurança que passaram anos na sua área sofrem agora ataques de deepfake contra os quais não se conseguem defender.
- A atual abordagem "confiar mas verificar" já não é eficaz porque a verificação tem de se tornar um procedimento operacional permanente.
- É necessário implementar sistemas de deteção em tempo real porque os métodos de deteção manual não conseguem detetar as ameaças antes de estas se tornarem ameaças.
O futuro pertence a quem está preparado
As organizações têm de escolher entre implementar sistemas de deteção de IA de imediato para impedir que a fraude deepfake atinja o crescimento previsto de 155% em 2025 ou arriscar a divulgação pública dos seus sistemas.
As organizações que actuarem agora defenderão a sua saúde financeira e, ao mesmo tempo, criarão sistemas de confiança que garantirão a sua posição como líderes no futuro mercado baseado na IA.
As empresas que detetarem primeiro as ameaças da IA e implementarem soluções rapidamente serão bem-sucedidas na batalha entre a IA e a IA.
Referências
- Pindrop (12 de junho de 2025): "Pindrop's 2025 Voice Intelligence & Security Report" - 1,300% aumento da fraude deepfake, dados de análise de chamadas
- Unite.AI (há 20 horas): "Deepfakes, Voice Clones Fuel 148% Surge in AI Impersonation Scams" - Estatísticas do Identity Theft Resource Center
- Grupo-IB (6 de agosto de 2025): "The Anatomy of a Deepfake Voice Phishing Attack" - Asia-Pacific 194% surge, dados sobre o impacto financeiro
- J.P. Morgan (2025): "Fraudes de IA, falsificações profundas, imitações" - $16,6 mil milhões de perdas com fraudes, aumento de 33%
- Incode (20 de dezembro de 2024): "Top 5 Cases of AI Deepfake Fraud From 2024" - inquérito executivo da Deloitte, detalhes do caso WPP
- Eftsure US (2025): "Estatísticas Deepfake (2025): 25 novos factos para os diretores financeiros" - Lacunas na formação, estatísticas sobre a confiança dos trabalhadores
- Security.org (26 de agosto de 2025): "2024 Deepfakes Guide and Statistics" - Estatísticas de vítimas de clonagem de voz, panorama regulamentar
- Ordem dos Advogados Americana (2025): "What Deepfake Scams Teach Us About AI and Fraud" - Estudo de caso de Brad Pitt, implicações jurídicas
- Axios (15 de março de 2025): "Fraudes de clonagem de voz por IA: Uma ameaça persistente" - Estudo da Consumer Reports, dados da FTC sobre falsificação de identidade