São necessários menos de 5 segundos de áudio público de um vídeo do LinkedIn para que um fraudador possa clonar a voz e o rosto do seu Diretor Executivo.
No tempo que demorou a ler esta frase, um ataque de fraude executiva poderia ter sido lançado contra o departamento financeiro de alguém.
A sua prevenção de fraudes nos pagamentos é suficientemente rápida para detetar um deepfake?
E o que está a fazer neste momento para o detetar?
Neste blogue, vamos analisar os diferentes tipos de fraude de vídeo para executivos, as técnicas que os autores de fraudes utilizam e os principais sinais de alerta a que deve estar atento. Também ficará a saber como pode utilizar a IA para evitar estes ataques antes que o dinheiro saia da sua conta.
Vamos mergulhar.
Principais conclusões
- A fraude executiva Deepfake causou perdas de $410M no primeiro semestre de 2025.
- Os criminosos utilizam técnicas de troca de rosto, clonagem de voz e manipulação de vídeo em direto.
- Os detectores de vídeo com IA conseguem detetar pequenas falhas visuais e sonoras que os humanos não detectam, e fazem-no instantaneamente.
- Quando os controlos de vídeo com IA são colocados na fase de aprovação do pagamento, os vídeos falsos podem ser bloqueados antes de o dinheiro ser enviado.
- A combinação de verificações de vídeo com IA com verificação de retorno de chamada e aprovação dupla elimina o ponto fraco visado pela maioria dos ataques de fraude.
- Em 2026, para acabar com a fraude nos pagamentos é necessária uma deteção automatizada por IA. O julgamento humano, por si só, já não é suficiente.
O que são vídeos executivos que desencadeiam pagamentos?
Os vídeos executivos que desencadeiam pagamentos são vídeos gravados ou em direto que pedem ou insinuam que um membro da equipa financeira deve movimentar dinheiro.
Existem três tipos:
- Registos de aprovação do CEO
Vídeos pré-gravados em que o Diretor Executivo aprova uma transferência, um pagamento a um fornecedor ou uma aquisição. Legitimamente, são para auditorias ou comunicação entre zonas temporais.
Nunca mais se preocupe com fraudes de IA. TruthScan Pode ajudar-vos:
- Detetar a IA gerada imagens, texto, voz e vídeo.
- Evitar grandes fraudes impulsionadas pela IA.
- Proteja os seus mais sensível activos da empresa.
Exemplo de fraude: Os atacantes treinam a IA em imagens públicas de CEO (como LinkedIn, chamadas de resultados, entrevistas televisivas) e geram um vídeo falso a aprovar um pagamento.
As finanças vêem o rosto e a voz do diretor-geral, pensam que é real e processam a transferência sem questionar.
- Vídeos de autorização do CFO
Chamadas em direto ou gravadas do diretor financeiro a autorizar grandes transacções. Os diretores financeiros são alvos importantes porque a sua aprovação implica autoridade máxima.
- Comunicações financeiras internas
Vídeos de aspeto rotineiro enviados através do Slack ou do Teams para contornar os protocolos normais de prevenção de fraudes nos pagamentos.
Exemplo de fraude:
Executivos italianos (início de 2025) - mais de 1 milhão de euros perdidos: Os criminosos clonaram as vozes e os rostos de vários líderes para falsificar uma equipa executiva italiana, o que levou a uma perda de mais de 1 milhão de euros antes mesmo de a primeira varredura de deteção de deepfake ter sido realizada.

Ameaça crescente de fraude executiva Deepfake
A fraude executiva provocada por deepfake está a explodir. As perdas atingem $410M no primeiro semestre de 2025, e os seres humanos só conseguem detetar uma pequena parte deste número.
Vejamos alguns exemplos de fraude executiva:
Arup, Hong Kong (Fev. 2024) - perda de $25M: Uma funcionária do sector financeiro juntou-se a uma videochamada que parecia incluir o seu diretor financeiro e colegas. A chamada foi gerada por IA utilizando imagens de reuniões antigas.
Efectuou 15 transferências num total de HK$200M antes de confirmar as instruções.
Multinacional de Singapura (Mar 2025) - perda de $499K: Um diretor financeiro aprovou uma chamada Zoom que mostrava um diretor financeiro e uma equipa de liderança gerados por IA.
A transferência foi efectuada porque a chamada foi enquadrada como uma aquisição urgente. Sem um detetor de vídeo com IA, o olho humano não tinha qualquer hipótese.
Ferrari (Jul 2024) - Ataque interrompido: Os burlões clonaram a voz do diretor executivo no WhatsApp para pedir uma transferência confidencial. Os executivos fizeram uma pergunta de verificação a que a IA não conseguiu responder. Não houve perda de fundos.
Técnicas que os autores de fraudes utilizam para manipular vídeos
| Técnica | Como funciona | Porque é que é perigoso |
| Troca de rosto / Vídeo Deepfake | A IA é treinada em vídeos de um executivo e coloca o seu rosto no corpo de outra pessoa. Pode funcionar em direto ou em vídeos gravados. | Parece muito real. Ultrapassa a deteção visual básica de deepfake. |
| Clonagem de voz | A IA copia a voz de uma pessoa utilizando alguns segundos de áudio de entrevistas, chamadas ou discursos. | Parece real; torna a fraude executiva difícil de questionar |
| Injeção facial em tempo real | O software substitui o rosto de uma pessoa durante uma chamada de vídeo em direto utilizando uma câmara virtual. | Permite conversas completas em direto enquanto aparece como o executivo. |
| Reuniões falsas com várias pessoas | Os atacantes criam uma videochamada inteira com vários participantes falsos. | Parece mais credível porque muitos colegas parecem concordar. |
| Investigação OSINT (Investigação de dados públicos) | Os autores de fraudes recolhem vídeos públicos, organogramas e informações sobre a empresa antes de atacarem. | Torna a tentativa de fraude executiva altamente direcionada. |
| Falsificação de plataformas e canais | Os vídeos falsos são combinados com e-mails, contas WhatsApp ou mensagens de conversação falsas. | A existência de vários canais faz com que a fraude pareça mais real. |
| Fraude como serviço | As ferramentas Deepfake e os kits de burla são vendidos online a baixo preço. | Qualquer pessoa pode efetuar fraudes avançadas. Custo muito baixo, pagamento muito elevado. |
Sinais de vídeos de executivos potencialmente manipulados
Aqui estão alguns dos sinais de alerta de deepfake que um detetor de deepfake fiável pode detetar automaticamente:
Sinais visuais
- Piscar: Pisca muito pouco ou a horas estranhas.
- Sincronização labial: A boca e a voz não coincidem.
- Bordos do rosto: O rosto parece desfocado ou difuso à volta do cabelo/pescoço.
- Vista lateral: O rosto parece errado quando se vira a cabeça.
- Cabeça congelada: O pescoço e os ombros não se movem naturalmente.
- Reflexos: Os olhos ou os óculos não coincidem com a iluminação.
- Pele: Demasiado lisa ou com um aspeto falso.
- Iluminação: As sombras não combinam com a divisão.
- Teste da mão: Os objectos à frente do rosto provocam efeitos estranhos.
Sinais sonoros
- Voz de robô: demasiado limpa ou pouco natural.
- Pausas estranhas: Hesitações estranhas ao falar.
- Sem ruído de fundo: Som demasiado perfeito para a sala.
- Mudança de sotaque: A voz soa ligeiramente diferente para as pessoas que os conhecem.
Comportamento e contexto
- Urgente + secreto: Pressiona-o a agir rapidamente e sozinho.
- Plataforma incorrecta: Utiliza aplicações pessoais para contornar a deteção automática de fraudes.
- Sem duplo controlo: Evita a verificação através do número oficial.
- Ignorar regras: Ignora os passos normais de prevenção de fraude nos pagamentos.
Testes rápidos em direto
- Peça-lhes para mostrarem uma vista lateral.
- Ver se o seu rosto apresenta falhas.
- Esticar a língua para detetar erros.
- Efectue uma verificação de vídeo com IA em direto, perguntando algo que só eles saberiam.
- Terminar a chamada e ligar para o número oficial para confirmar.
Como a IA pode detetar fraudes em vídeos de executivos
Estudos demonstram que as pessoas não conseguem identificar com precisão deepfakes de alta qualidade, e a tecnologia está a avançar mais rapidamente do que a formação humana.
Temos de utilizar IA avançada para detetar fraudes baseadas em IA;
- Detetor de Deepfake: Detetar imagens sintéticas
O Deepfake Detetor do TruthScan protege as equipes financeiras contra fraudes em vídeos de executivos, detectando manipulações que os humanos não conseguem ver.
Necessidade de detetar manipulações subtis? → Detecta pequenas inconsistências faciais, cutâneas e de iluminação que os olhos em tempo real não detectariam.
Necessidade de verificar o comportamento natural? → Assinala os vídeos em que a IA não consegue reproduzir o movimento humano real.
Precisa de examinar o próprio ficheiro? → Examina as impressões digitais para provar se um vídeo foi adulterado ou gerado por IA.
Precisa de identificar participantes falsos? → Detecta colegas gerados por IA em chamadas de grupo, evitando ataques de engenharia social.
Precisa de proteção em tempo real? → Monitoriza as videochamadas à medida que estas ocorrem, para que os pedidos suspeitos não dêem origem a pagamentos.
Precisa de apoio ao fluxo de trabalho automatizado? → Sinaliza, retém ou encaminha automaticamente vídeos suspeitos, mantendo as equipas financeiras concentradas em ameaças reais.
Precisa de precisão a nível empresarial? → Deteção 99%+ com pontuações de confiança e registos de data e hora para auditorias internas, investigações de fraude e relatórios regulamentares.
- Detetor de vídeo AI
O detetor de vídeo TruthScan AI analisa todos os pagamentos associados a vídeos antes da aprovação, assinalando conteúdos suspeitos com pontuações de confiança.
Precisa de impedir os pagamentos falsos? → O portal de pré-autorização retém automaticamente os vídeos suspeitos para que não dêem origem a um pagamento.
Necessidade de verificar todas as comunicações? → O TruthScan analisa vídeo, áudio e texto em conjunto para detetar instruções relacionadas,
Precisa de apoio de grande volume? → A API e o processamento em massa processam centenas de vídeos sem abrandar os fluxos de trabalho.
Precisa de proteção para chamadas em direto? → A extensão do browser alerta instantaneamente durante as chamadas de vídeo.
Precisa de se manter à frente da fraude de IA? → As actualizações contínuas captam os últimos deepfakes.
Incorporação da verificação nos fluxos de trabalho de pagamento
Para reforçar a prevenção da fraude nos pagamentos, integre a verificação diretamente no seu fluxo de trabalho:
Passo 1: Rastreio de vídeo de pré-autorização
A IA verifica todos os vídeos através de um detetor Deepfake antes da aprovação. Os vídeos sinalizados vão para um revisor humano.
Etapa 2: Autorização dupla
Os pagamentos de elevado valor requerem duas aprovações independentes a partir de canais separados.
Etapa 3: Chamada de retorno fora de banda
Confirmar as instruções através de um canal separado e de confiança, como uma chamada, Slack verificado ou pessoalmente.
Etapa 4: Pontuação de anomalias
Combine sinais de risco (valor elevado, nova conta, fora do horário de expediente, urgência, incompatibilidade de plataforma) com a pontuação de vídeo para acionar uma verificação adicional.
Passo 5: Apenas canais verificados
Permitir pagamentos apenas através de plataformas empresariais aprovadas. Ignorar mensagens de correio eletrónico pessoais, WhatsApp ou ligações não verificadas.
Etapa 6: Credenciais C2PA
Utilizar assinaturas criptográficas em vídeos internos. Qualquer vídeo adulterado ou gerado por IA falha na verificação de vídeo por IA.
Estratégias para reduzir a fraude de vídeo para executivos
Eis como as organizações se podem proteger.
# 1 - Formar equipas financeiras para a imitação de IA
Os funcionários devem praticar ataques simulados de deepfake e aprender a verificação sob pressão:
| Foco na formação | Importância |
| Verificação de retorno de chamada | Impede que os atacantes utilizem números de telefone ou e-mails falsos |
| Controlos de vídeo em direto | Movimento da língua, perfil lateral, testes de oclusão para detetar falsificações |
| Protocolo de retenção de pagamentos | Permite ao pessoal interromper as transacções em segurança |
| Processo de escalonamento | Assegura que os pedidos suspeitos chegam rapidamente à segurança |
# 2 - Palavras seguras para verificação
Em vez de confiar apenas no vídeo, defina frases pré-acordadas ou perguntas de desafio para evitar fraudes executivas:
- Conhecido apenas por um grupo pequeno e definido.
- Se um executivo não o puder fornecer, a interação é terminada e a segurança é alertada.
- Conseguiu travar verdadeiros ataques à direção.
# 3 - Proteger a pegada digital dos executivos
Os vídeos públicos alimentam os modelos de IA deepfake. Reduzir a exposição para proteger contra desvios da deteção automática de fraudes:
| Ação | Objetivo |
| Auditoria de vídeos/áudio de executivos existentes | Saber o que está disponível em linha para treinar modelos de IA |
| Limitar as gravações de alta resolução e com iluminação clara | Torna mais difícil para os atacantes criarem falsificações realistas |
| Briefing executivo | Assegurar que o pessoal compreende que todas as gravações públicas constituem material de ataque potencial |
| Equilibrar a presença pública | Manter as necessidades dos investidores, da imprensa e do marketing, mas publicar deliberadamente |
# 4 - Aplicar o Zero Trust para instruções financeiras
Nunca confie apenas em vídeo, voz ou correio eletrónico. Verifique sempre através de um canal separado.
- As políticas devem permitir que o pessoal suspenda os pagamentos mesmo sob pressão dos executivos.
- A eliminação da urgência e da autoridade quebra a vantagem psicológica do ataque.
# 5 - Testes e seguros de cibersegurança
| Estratégia | Objetivo |
| Seguro com cobertura de fraude de IA | Protege contra engenharia social deepfake e interrupção de negócios |
| Testes de penetração e exercícios de equipa vermelha | Simula ataques para garantir que os processos de retorno de chamada e de verificação funcionam na prática |
# 6 - Cumprir os regulamentos emergentes
- Lei da IA da UE (agosto de 2025): Todos os deepfakes devem ser claramente identificados.
- Lei TAKE IT DOWN dos EUA: Criminaliza os deepfakes íntimos não consensuais.
- Orientação do FinCEN: Referir FIN-2024-DEEPFAKEFRAUD ao comunicar actividades suspeitas.
- Os sectores regulamentados devem documentar as medidas tomadas para prevenir a fraude.
Como o TruthScan melhora a segurança dos pagamentos por vídeo
O TruthScan é uma plataforma de deteção de fraudes com IA que protege mais de 250 milhões de utilizadores contra vídeos, imagens, áudio e texto falsos.
Oferece seis caraterísticas-chave às organizações que asseguram pagamentos através de vídeo executivo:
- Verificar vídeos no portão do fluxo de trabalho
Liga-se aos seus sistemas de pagamento e de comunicação. Cada vídeo é automaticamente analisado, pelo que a sua equipa só vê os que parecem suspeitos. - Análise forense completa com registos
Cada resultado é fornecido com uma pontuação de confiança, um registo de data e hora e detalhes. Isto dá-lhe uma pista de auditoria completa para conformidade e investigações.
- Deteção de IA sempre actualizada
O detetor de deepfake TruthScan actualiza os seus modelos à medida que surgem novas ferramentas de IA. Obtém a proteção mais recente antes que os fraudadores o apanhem. - Detetar fraudes em todos os canais
Não se limita a verificar o vídeo. O áudio, as imagens, os e-mails e as conversas são todos analisados para que os ataques coordenados sejam apanhados. - Criado para grandes volumes empresariais
Lida facilmente com grandes quantidades de vídeos. Os modelos personalizados atingem uma precisão de 99%+, mesmo para cargas de trabalho pesadas. - Proteção em tempo real durante as chamadas
Um alerta do navegador mostra se um vídeo é falso enquanto a chamada está a decorrer, antes de ser efectuado qualquer pagamento.
Fale com o TruthScan sobre a proteção de pagamentos contra falsificações profundas
Um único ataque deepfake bem sucedido pode custar a uma organização $500.000 ou mais, mas a tecnologia para o lançar pode custar menos de $2. Esta é a escala da ameaça.
Pode evitar perdas maciças incorporando a verificação por vídeo baseada em IA diretamente nos fluxos de trabalho de aprovação de pagamentos.
- Impedir pedidos de pagamento fraudulentos antes de serem processados
- Proteção de chamadas em tempo real para autorização executiva
- Registos de auditoria para conformidade e investigação
- Actualizações contínuas para apanhar as mais recentes ferramentas de deepfake
O TruthScan fornece ferramentas de deteção de deepfake de nível empresarial e de verificação de vídeo com IA. Com a integração da API, pode certificar-se de que cada vídeo executivo é verificado antes de um pagamento ser efectuado.
Agende uma demonstração ou consulte a equipa TruthScan em Truthscan.com para avaliar a sua exposição e criar um sistema de verificação de pagamentos pronto para 2026.