Em junho de 2025, um funcionário da Google recebeu o que parecia ser uma chamada de rotina do apoio informático.
A voz na linha parecia profissional, confiante e completamente familiar.
O técnico pediu ao empregado para aprovar uma nova aplicação no sistema Salesforce da empresa.
Em poucos minutos, os atacantes tiveram acesso e roubaram 2,55 milhões de registos de clientes do CRM da Google.
O que tornou isto possível foi a utilização de tecnologia de áudio deepfake, com vozes geradas por IA tão convincentes que enganaram uma das formas de autenticação mais fiáveis, o reconhecimento da voz de um colega.
Este incidente, associado ao grupo ShinyHunters, mostra como os atacantes estão agora a utilizar a inteligência artificial para invadir os sistemas das empresas.
Sendo a espinha dorsal da gestão das relações com os clientes para milhões de organizações em todo o mundo, a Salesforce tornou-se um dos principais alvos de uma nova geração de ataques de engenharia social baseados em IA.
Porque é que a Salesforce se tornou um alvo de Deepfake
O crescimento da Salesforce também a transformou num grande alvo de roubo de dados.
Uma vez que tudo está centralizado, uma única violação pode expor milhões de registos de clientes de muitas empresas diferentes.
Como observa Tim West, Diretor de Threat Intelligence da WithSecure:
Nunca mais se preocupe com fraudes de IA. TruthScan Pode ajudar-vos:
- Detetar a IA gerada imagens, texto, voz e vídeo.
- Evitar grandes fraudes impulsionadas pela IA.
- Proteja os seus mais sensível activos da empresa.
"Grupos de hackers como o Scattered Spider utilizam a engenharia social para obter acesso a ambientes SaaS. Os seus ataques podem parecer tecnicamente simples, mas isso não os torna menos perigosos."

De acordo com a nova pesquisa da WithSecure, a atividade maliciosa dentro dos ambientes do Salesforce aumentou acentuadamente no primeiro trimestre de 2025, com um aumento de vinte vezes nas detecções em comparação com o final de 2024.
Como os Deepfakes alimentaram uma violação da Salesforce
O que torna os ataques recentes especialmente perigosos é o facto de a tecnologia deepfake ter passado de uma ferramenta de nicho para algo que qualquer pessoa pode utilizar como arma.
Ao contrário das violações de dados tradicionais que entram diretamente nas bases de dados, os cibercriminosos estão agora a utilizar a engenharia social baseada na voz, ou "vishing". Com o aumento dos deepfakes e da clonagem de voz por IA, estes ataques estão a tornar-se muito mais difíceis de detetar.

A campanha da ShinyHunters contra os clientes da Salesforce segue um manual eficaz que combina a engenharia social tradicional com o engano de IA de ponta:
Fase 1: Recolha de informações de voz
Os atacantes começam por recolher amostras de áudio de fontes públicas, apresentações de executivos, chamadas em conferência, vídeos de empresas ou publicações em redes sociais.
Com apenas 20-30 segundos de áudio nítido, podem criar clones de voz convincentes.
Fase 2: A chamada de vishing do Deepfake
Durante uma chamada de vishing, o atacante convence a vítima a ir à página de configuração da aplicação ligada da Salesforce e a aprovar uma versão falsa da aplicação Data Loader, disfarçada com uma marca ligeiramente alterada.
Com isso, a vítima, sem saber, permite que os atacantes roubem dados confidenciais do Salesforce.
A sofisticação é notável. Nalguns casos, os atacantes utilizaram áudio deepfake para se fazerem passar por funcionários e persuadir o pessoal do help desk a autorizar o acesso indevido.
Isto representa uma evolução significativa do phishing de voz tradicional, em que os atacantes se limitavam a fingir ser figuras de autoridade, para a imitação melhorada por IA, em que podem efetivamente parecer indivíduos específicos.
Fase 3: Exploração do OAuth
Assim que a aplicação maliciosa é autorizada, os atacantes contornam completamente a autenticação multi-fator.
Depois de a aplicação falsa ser aprovada, os atacantes obtêm tokens OAuth de longa duração, que lhes permitem contornar a autenticação multi-fator e operar sem disparar os alertas de segurança normais.
Fase 4: Extração de dados silenciosos
O Threat Intelligence Group da Google alertou para o facto de um agente de ameaças ter utilizado uma ferramenta Python para automatizar o processo de roubo de dados para cada organização visada, tendo os investigadores conhecimento de mais de 700 organizações potencialmente afectadas.
Porque é que somos vulneráveis às vozes da IA
O sucesso destes ataques explora uma caraterística humana fundamental: a nossa tendência para confiar no que ouvimos.
De acordo com um estudo global recente, 70 por cento das pessoas dizem não estar confiantes de que conseguem identificar uma voz real versus uma voz clonada.
Esta vulnerabilidade é agravada em ambientes empresariais onde o pessoal do serviço de assistência é treinado para ser prestável e complacente, e o trabalho remoto normalizou as interações apenas com áudio.
De acordo com o Relatório de Ameaças Globais 2025 da CrowdStrike, houve um aumento de 442% nos ataques de phishing de voz (vishing) entre o primeiro e o segundo semestre de 2024, impulsionado por táticas de phishing e personificação geradas por IA.
A chamada de atenção de $25 milhões

As implicações dos ataques de deepfake vão muito para além da Salesforce.
O roubo de $25 milhões de deepfake na empresa de engenharia Arup no início de 2024, em que os atacantes utilizaram a IA para se fazerem passar por vários executivos numa videochamada, demonstrou que nenhuma organização está imune a esta ameaça.
Ataques semelhantes visaram também executivos de diferentes sectores, incluindo uma tentativa de se fazer passar pelo CEO da Ferrari, Benedetto Vigna, utilizando chamadas de voz clonadas por IA que imitavam o seu sotaque do sul de Itália.
Estes incidentes representam aquilo a que os especialistas em segurança chamam "fraude do CEO 2.0", ataques que vão além da simples imitação de correio eletrónico para criar enganos multi-sensoriais que podem enganar até executivos experientes.
Segurança da plataforma vs. vulnerabilidade humana
A Salesforce foi rápida em enfatizar que essas violações não representam vulnerabilidades em sua plataforma em si.
A Salesforce reconheceu a campanha do UNC6040 em março de 2025, avisando que os atacantes estavam a fazer-se passar por apoio informático para enganar os funcionários e levá-los a fornecer credenciais ou a aprovar aplicações ligadas maliciosas.
A empresa sublinhou que estes incidentes não envolveram ou tiveram origem em quaisquer vulnerabilidades na sua plataforma.
Isto mostra um grande desafio para todos os fornecedores de SaaS: descobrir como impedir ataques que jogam com a confiança humana em vez de falhas técnicas.
A Salesforce implementou várias medidas de defesa:
- Reforço de aplicações ligadas: Desativação automática de aplicações ligadas não instaladas para novos utilizadores
- Restrições de fluxo OAuth: Desativação de ligações obtidas através de determinados processos de autorização
- Monitorização melhorada: Deteção melhorada de padrões suspeitos de autorização de aplicações
- Educação dos utilizadores: Publicação de orientações sobre o reconhecimento de tentativas de engenharia social
Em agosto de 2025, a Salesforce encerrou todas as integrações com as tecnologias Salesloft, incluindo a aplicação Drift, depois de descobrir que os tokens OAuth tinham sido roubados em ataques relacionados.
Os especialistas em segurança alertam agora para a necessidade de as equipas prestarem atenção a pistas subtis, como pausas estranhas, ruído de fundo ou falhas de áudio, que podem revelar quando uma voz foi gerada por IA.
A resposta da empresa: Para além das soluções tecnológicas
As organizações estão a começar a reconhecer que a defesa contra ataques de deepfake requer mais do que soluções tecnológicas; exige uma reformulação fundamental dos processos de confiança e verificação.
Comunicação de confiança zero
O RealityCheck da Beyond Identity dá a cada participante um crachá de identidade visível e verificado, apoiado por autenticação criptográfica de dispositivos e verificações contínuas de risco, atualmente disponível para o Zoom e o Microsoft Teams.
Estas soluções representam uma mudança para modelos de comunicação empresarial do tipo "nunca confiar, sempre verificar".
Programas de formação melhorados
As organizações que utilizam a plataforma de simulação de deepfake da Resemble AI registam uma redução de até 90% nos ataques bem-sucedidos após a implementação da plataforma, que utiliza simulações hiper-realistas para ilustrar a forma como os ataques de deepfake se desenrolam no mundo real.
Verificação multi-canal
As organizações líderes estão a implementar protocolos que exigem a verificação através de múltiplos canais para quaisquer pedidos de alto risco, independentemente da autenticidade da comunicação inicial.
Quando a voz deixa de ser verdade
A ameaça de deepfake à Salesforce e a outros sistemas empresariais representa um ponto de inflexão na história da cibersegurança.
Pela primeira vez, os atacantes não se podem limitar a fazer-se passar por figuras de autoridade; podem, de facto, parecer-se com elas e convencer até mesmo profissionais de segurança treinados a tomar medidas que comprometam a segurança da organização.
Numa era de enganos gerados pela IA, a confiança tem de ser conquistada através da verificação e não assumida através da familiaridade.
As empresas que compreendem este facto e investem nas ferramentas, processos e cultura corretos estarão em melhor posição para proteger a segurança e a confiança num mundo digital cada vez mais incerto.
Nesta nova realidade, a voz do outro lado da linha pode não ser quem parece.
Na era dos deepfakes, a vigilância constante é o preço da segurança.