Introdução: Uma nova era de ataques com base em IA
O ano de 2025 marcou um ponto de viragem na cibersegurança. A IA generativa sobrecarregou os ciberataques, permitindo que os agentes de ameaças lancem mais frequentes, realistas e escaláveis campanhas do que nunca. De facto, no ano passado, estima-se que 16% dos incidentes cibernéticos comunicados envolveram atacantes que utilizaram ferramentas de IA (por exemplo, modelos de geração de imagens e de linguagem) para melhorar a engenharia social[1]. Desde e-mails de phishing ultra-convincentes a esquemas de áudio/vídeo deepfake, os agentes maliciosos estão a utilizar a IA como arma em todos os sectores. A maioria dos profissionais de segurança atribui agora a aumento dos ciberataques à IA generativaque proporciona aos maus actores formas mais rápidas e inteligentes de explorar as vítimas[2]. A IA generativa está efetivamente a baixar a fasquia de competências para a cibercriminalidade, ao mesmo tempo que aumenta a sua potência.
Porque é que isto é tão preocupante? A IA pode produzir instantaneamente conteúdo polido e contextualizado que engana até os utilizadores treinados. Pode fazer-se passar por vozes e rostos com uma precisão assustadora e até gerar código malicioso que se transforma para evitar a deteção. Como resultado, os ciberataques tornaram-se mais difíceis de detetar e mais fáceis de executar. Os Fórum Económico Mundial alerta para o facto de 72% das organizações terem registado um aumento dos riscos cibernéticos - especialmente engenharia social e fraude - devido às capacidades crescentes da IA generativa[3]. Os incidentes do mundo real confirmam este facto: No início de 2024, os criminosos usaram uma máquina gerada por IA chamada de vídeo deepfake para se fazer passar pelo diretor financeiro de uma empresa e enganar um empregado para que este transfira $25,6 milhões de euros aos autores das fraudes[4]. E noutro caso, os piratas informáticos norte-coreanos utilizaram Documentos de identificação falsos gerados por IA para contornar as verificações de segurança numa campanha de phishing de defesa[5]. Estes exemplos sublinham o que está em jogo - a IA generativa está a potenciar fraudes que contornam os controlos humanos e técnicos.
No entanto, a IA também faz parte da solução. As ferramentas de deteção avançadas (como as do TruthScan) utilizam a IA contra IA - analisar o conteúdo para detetar as assinaturas subtis da geração de máquinas. Neste whitepaper, examinaremos as principais ameaças cibernéticas impulsionadas por IA de 2025 e como as organizações podem mitigá-las. De Phishing gerado por IA para deepfake Fraude do diretor executivo, Malware criado por IA, identidades sintéticase muito mais, iremos explorar a forma como a IA generativa está a remodelar os ataques. Também discutiremos medidas defensivas concretas, incluindo Deteção de conteúdos com IAA conferência apresenta uma série de tecnologias de verificação de identidade que podem ajudar as equipas de segurança a recuperar a vantagem. O objetivo é mostrar como as empresas, os MSSP, os CISO e os investigadores de fraudes podem integrar ferramentas de deteção de IA em toda a sua pilha de cibersegurança para fazer face a esta vaga de ameaças baseadas na IA.
Nunca mais se preocupe com fraudes de IA. TruthScan Pode ajudar-vos:
- Detetar a IA gerada imagens, texto, voz e vídeo.
- Evitar grandes fraudes impulsionadas pela IA.
- Proteja os seus mais sensível activos da empresa.

Phishing e BEC gerados por IA: burlas a uma escala sem precedentes
Um dos impactos mais claros da IA generativa tem sido o phishing e o comprometimento do correio eletrónico empresarial (BEC) esquemas. Os modelos linguísticos da IA podem redigir mensagens de correio eletrónico fluentes e contextualmente adaptadas em segundos, eliminando os erros gramaticais e as frases estranhas que antigamente denunciavam o phishing. O resultado é uma enxurrada de e-mails e textos fraudulentos altamente convincentes. Até abril de 2025, mais de metade dos e-mails de spam (51%) estavam a ser escritos por IA, contra praticamente zero dois anos antes[6]. Ainda mais alarmante, os investigadores descobriram que cerca de 14% dos e-mails de ataque BEC foram gerados por IA até 2025[7] - um número que deverá aumentar à medida que os criminosos adoptam ferramentas como o ChatGPT. Alguns estudos estimam que sobre 80% de mensagens electrónicas de phishing podem agora ter a ajuda da IA para as elaborar[8].
O volume destes aliciantes gerados por IA explodiu. As análises de segurança mostram que os ataques de phishing ligados à IA generativa aumentaram em 1,265% num curto espaço de tempo[9]. Num período, as notificações de incidentes de phishing aumentaram 466% num único trimestreA Internet está a ser utilizada por todos os utilizadores, em grande parte devido a kits de phishing automatizados e bots que lançam iscos personalizados[9][10]. Porquê este pico? Porque a IA permite aos atacantes escala as suas operações de forma dramática. Um único criminoso pode utilizar um chatbot com IA para gerar milhares de e-mails fraudulentos personalizados direcionados a diferentes funcionários ou clientes, tudo no tempo que costumava levar para criar um. Essa automação em massa levou o FBI a alertar que as perdas de BEC (que já eram $2.7 bilhões em 2022) só vão acelerar à medida que a IA "ameaça aumentar ainda mais essas perdas"[11][12].
Não só há mais e-mails de phishing, como também mais eficaz. As vítimas são enganadas a taxas mais elevadas pela linguagem polida e pelos pormenores contextuais que a IA pode incorporar. Em testes de laboratório, as mensagens electrónicas de phishing escritas por IA atingiram um 54% taxa de cliques - muito acima dos ~12% das tentativas de phishing tradicionais[13]. Estas mensagens parecem-se com o estilo de um verdadeiro CEO ou fazem referência a eventos reais da empresa, baixando a guarda dos destinatários. Os atacantes utilizam mesmo a IA para fazer testes A/B a diferentes frases e repetir os ganchos mais bem sucedidos[14]. E, ao contrário dos seres humanos, a IA não comete erros de digitação nem se cansa - pode lançar infinitas variantes até que uma passe pelos filtros e engane alguém.
Caso em questão: Em meados de 2025, um Reuters A investigação expôs a forma como os burlões do Sudeste Asiático utilizaram o ChatGPT para automatizar as comunicações de fraude[15]. Geraram e-mails bancários convincentes e textos de serviço ao cliente em massa, aumentando enormemente o alcance dos seus esquemas. A polícia europeia relatou igualmente a venda de kits de phishing baseados em IA na dark web por menos de $20, permitindo que actores pouco qualificados lancem campanhas sofisticadas[16][17]. A barreira de entrada para o BEC e o phishing evaporou-se essencialmente.
Medidas defensivas - Parar o Phish de IA: Perante este ataque, as organizações têm de fortalecer os seus canais de correio eletrónico e de mensagens. É aqui que Deteção de conteúdos com IA pode ajudar. Ferramentas como Detetor de texto com IA do TruthScan e especializada scanners de correio eletrónico pode analisar as mensagens recebidas para detetar os marcadores estatísticos de texto gerado por IA. Por exemplo, o Detetor de fraudes de e-mail TruthScan utiliza a análise da linguagem natural para assinalar as mensagens de correio eletrónico que provavelmente tiveram origem numa IA, mesmo que pareçam legítimas[18]. Estes detectores examinam aspectos como a gramática perfeitamente polida, a complexidade das frases e os padrões estilométricos que são invulgares nos escritores humanos. Com digitalização em tempo realSe o e-mail não for identificado, os e-mails suspeitos podem ser colocados em quarentena ou sinalizados para revisão antes de chegarem aos utilizadores. As equipas de segurança das empresas estão a começar a implementar esses filtros baseados em IA nos gateways de correio eletrónico e nas plataformas de mensagens. Na prática, isso adiciona uma nova camada de defesa aos filtros de spam tradicionais - uma camada explicitamente ajustada para capturar conteúdo escrito por IA. A partir de 2025, as empresas líderes estão a integrar soluções como o TruthScan via API nos seus gateways de e-mail seguros e conjuntos de colaboração na nuvem, criando um ponto de verificação automatizado para Phishing gerado por IA conteúdo.
Falsa imitação de voz e vídeo: A fraude do "ver para crer"
Talvez a ameaça mais visceral impulsionada pela IA em 2025 seja a ascensão da ataques de voz e vídeo deepfake. Utilizando modelos de IA, os criminosos podem clonar a voz de uma pessoa a partir de apenas alguns segundos de áudio, ou gerar um vídeo realista do rosto de alguém a partir de um punhado de fotografias. Estas falsificações profundas estão a ser utilizadas como arma para esquemas de falsificação de identidade de alto risco - desde fraudes de CEO (chamadas de "CEO falso") a videoconferências falsas e muito mais. Um relatório recente do sector revelou 47% das organizações sofreram ataques de deepfake de algum tipo[19]. E não se trata apenas de teoria: vários assaltos em 2023-2025 provaram que os deepfakes podem derrotar a derradeira autenticação - os nossos próprios olhos e ouvidos.
Um caso infame envolveu uma transferência bancária internacional de $25 milhões depois de um empregado ter sido enganado por uma videoconferência "deepfake". Os atacantes utilizaram a IA para sintetizar a imagem do diretor financeiro da empresa numa chamada Zoom, com a sua voz e maneirismos, dando instruções ao empregado para transferir fundos[4][20]. Noutro incidente na Austrália, um governo local perdeu $2,3 milhões quando os burlões falsificaram a voz e o vídeo de funcionários municipais para aprovar pagamentos fraudulentos[21]. E, o que é preocupante, os criminosos estão a utilizar vozes clonadas por IA em "esquemas de avós" - telefonando a idosos e fazendo-se passar pelos seus familiares em perigo. O FBI e FinCEN emitiu alertas no final de 2024 sobre um aumento da fraude utilizando Meios de comunicação "deepfake" gerados por IAincluindo falsos agentes de serviço ao cliente e identidades sintéticas para contornar as verificações KYC[22].
A frequência dos crimes baseados em deepfake está a aumentar rapidamente. Até ao final de 2024, uma análise mostrou que estava a ocorrer um novo esquema de deepfake a cada cinco minutos em média[23]. Só no primeiro trimestre de 2025, os incidentes de deepfake registados aumentaram 19% em comparação com todos de 2024[24][25]. Estima-se que as falsificações profundas representem atualmente 6,5% de todos os ataques de fraude, a 2,137% aumento desde 2022[26][27]. A tecnologia necessária tornou-se facilmente acessível - muitas vezes, basta apenas 30 segundos de áudio para clonar uma voz, ou menos de uma hora de imagens de amostra para modelar o rosto de uma pessoa de forma convincente[20]. Em suma, nunca foi tão fácil "falsificar" a identidade de uma pessoa de confiança e enganam as vítimas para que estas entreguem dinheiro ou informações.
Medidas defensivas - Autenticar a realidade: Para combater as ameaças de deepfake, as organizações estão a recorrer a deteção de meios sintéticos ferramentas. Por exemplo, Detetor de voz com IA do TruthScan e Detetor de falsificação profunda TruthScan utilizam a IA para analisar áudio e vídeo em busca de sinais de manipulação. Estes sistemas efectuam uma análise quadro a quadro e da forma de onda para detetar artefactos como movimentos faciais não naturais, problemas de sincronização labial ou irregularidades espectrais do áudio que denunciam um clip gerado por IA. Nos testes, os algoritmos do TruthScan alcançaram 99%+ precisão na identificação de vozes geradas por IA e detectou fotogramas de vídeo manipulados em tempo real[28][29]. De facto, os investigadores do Genians Security Center utilizaram recentemente a análise forense de imagens do TruthScan para analisar um cartão de identificação falso utilizado por hackers norte-coreanos - o detetor de imagens deepfake do TruthScan assinalou o documento como não autêntico com 98% confiança, frustrando a tentativa de spear-phishing[5][30].
Para uma defesa prática, as empresas estão a implementar estas capacidades de deteção nos principais pontos de estrangulamento. Verificação por voz está a ser adicionada aos fluxos de trabalho dos centros de atendimento telefónico - por exemplo, quando um "cliente" solicita uma grande transferência por telefone, o áudio pode ser passado por um detetor de deepfake de voz para garantir que é realmente ele (e não uma imitação de IA). O mesmo se aplica, plataformas de videoconferência podem integrar a deteção de deepfake em direto nos fluxos de vídeo dos participantes, para detetar quaisquer rostos sintéticos. O conjunto de deteção de deepfake do TruthScan, por exemplo, oferece análise de chamadas de vídeo em tempo real e autenticação facial que pode ligar-se ao Zoom ou WebEx através da API[31][29]. Isto significa que, se alguém tentar participar numa reunião utilizando um vídeo criado por IA do seu Diretor Executivo, o sistema pode assinalar "possível falsificação profunda" antes de ocorrerem quaisquer danos. Além disso, as transacções importantes incluem agora muitas vezes um passo de verificação (fora de banda ou multifactor) que pode aproveitar a autenticação de conteúdos - por exemplo, exigindo uma breve confirmação falada que é depois verificada por um detetor de voz de IA para verificar a autenticidade. Ao colocar estas ferramentas em camadas, as empresas criam uma rede de segurança: mesmo que os empregados ver ou ouvir algo plausível, uma investigação forense de IA nos bastidores questionará a sua realidade. Num cenário de ameaças permeado pela IA, "Não confie - verifique" torna-se o mantra para qualquer comunicação de voz ou vídeo que envolva dinheiro ou acesso sensível.
Malware criado por IA e código ofuscado: Ameaças em evolução no código
A influência da IA não se limita à engenharia social - está também a mudar o jogo no desenvolvimento de malware e no código de ataque evasivo. Em 2025, o Threat Intelligence Group da Google descobriu o primeiras estirpes de malware que utilizam IA durante execução para alterar o seu comportamento[32][33]. Um exemplo, denominado PROMPTFLUXOera um script malicioso que, na realidade, chamava uma API de IA (modelo Gemini da Google) para reescrever o seu próprio código em tempo real, produzindo novas variantes ofuscadas para evitar a deteção de antivírus[34][35]. Esta evolução da IA "just-in-time" marca um salto para um malware autónomo e polimórfico. Outro exemplo, PROMPTSTEALA empresa, que utilizou um assistente de codificação de IA para gerar comandos de uma linha do Windows para roubo de dados, essencialmente externalizando partes da sua lógica para um motor de IA em tempo real[36][37]. Estas inovações apontam para um futuro em que o malware pode transformar-se continuamente - tal como um pen-tester humano faria - para derrotar as defesas.
Mesmo sem IA imediata, os atacantes estão a utilizar a IA durante o desenvolvimento para criar código malicioso mais potente. A IA generativa pode produzir malware que é altamente ofuscadoO sistema de segurança da Internet, que contém camadas de lógica confusa que dificultam a engenharia inversa. De acordo com relatórios de ameaças, mais de 70% das principais violações em 2025 envolveram alguma forma de malware polimórfico que altera a sua assinatura ou comportamento para evitar a deteção[38]. Adicionalmente, 76% de campanhas de phishing utilizam agora tácticas polimórficas como URLs dinâmicos ou cargas úteis reescritas por IA[38]. Ferramentas como as ofertas da dark-web WormGPT e FraudeGPT (clones sem restrições do ChatGPT) permitem que até mesmo os não especialistas gerem droppers de malware, keyloggers ou código de ransomware simplesmente descrevendo o que pretendem[39]. O resultado é uma abundância de novas variantes de malware. Por exemplo, em 2024, um ladrão de informação chamado BlackMamba surgiu que foi inteiramente gerada por IAO ChatGPT, utilizando o ChatGPT para escrever o seu código em segmentos - cada execução produzia um binário ligeiramente diferente, confundindo os antivírus tradicionais baseados em assinaturas[38]. Os investigadores de segurança também demonstraram provas de conceito polimórficas geradas por IA que podem iludir muitas protecções de terminais[40].
Além disso, os atacantes estão a tirar partido da IA para afinar as suas entrega de malware. A IA pode programar de forma inteligente mensagens de correio eletrónico de phishing (como referido) que contêm ligações de malware. Também pode ajudar no desenvolvimento de exploits - por exemplo, utilizando a IA para encontrar novas vulnerabilidades ou otimizar o shellcode. Segundo consta, os intervenientes estatais utilizaram modelos avançados de IA para ajudar a descobrir explorações de dia zero e a desenvolver malware adaptado aos alvos[41]. Todas estas tendências significam que o malware em 2025 é mais furtivo e mais adaptável. É frequentemente "co-criado" com a IAtornando mais difícil a sua deteção através de regras convencionais.
Medidas defensivas - IA vs. IA na defesa contra malware: A defesa contra malware criado por IA requer uma combinação de deteção avançada e análise alimentada por IA no lado defensivo. Muitas organizações estão a aumentar as suas proteção de pontos finais e EDR (Deteção e Resposta de Pontos Finais) com modelos de IA/ML que procuram os padrões de comportamento do código gerado pela IA. Por exemplo, as transformações súbitas do código no anfitrião ou os padrões invulgares de chamadas à API podem indicar algo como o facto de o PROMPTFLUX se estar a regenerar. Do mesmo modo, a monitorização da rede pode detetar anomalias, como malware que chega aos serviços de IA (o que não é "normal" para as aplicações dos utilizadores). Os fornecedores estão a treinar detectores baseados em ML na famílias do malware assistido por IA identificado até à data, melhorando o reconhecimento destas novas ameaças.
Uma solução emergente é análise integrada de conteúdos de IA nos pipelines de desenvolvimento e construção. Isto significa utilizar detectores orientados por IA para analisar scripts, compilações de software ou mesmo alterações de configuração para conteúdos maliciosos ou gerados por IA. Por exemplo, Detetor em tempo real do TruthScan pode ser implementado para além do texto - a sua análise multimodal pode potencialmente sinalizar código ou ficheiros de configuração suspeitos, reconhecendo se foram gerados por máquina com padrões de ofuscação[42][43]. As equipas de desenvolvimento e os MSSP estão a começar a analisar scripts de infraestrutura como código, registos do PowerShell e outros artefactos em busca de sinais de segmentos escritos por IA que possam indicar a mão de um atacante. Embora esta seja uma área incipiente, mostra-se promissora: num caso, uma equipa de segurança utilizou um detetor de IA para detetar um ficheiro de kit de phishing ofuscado que "parecia" gerado por IA e que, de facto, fazia parte de um ataque[44]. O código do ficheiro era demasiado complexo e detalhado (caraterísticas da geração de IA) e uma análise do conteúdo da IA confirmou uma elevada probabilidade de não ter sido escrito por humanos[40].
Por último, a partilha de informações sobre ameaças centrada nas ameaças de IA é crucial. Quando o Google GTIG publica pormenores sobre malware baseado em Prompt ou quando os investigadores relatam novas técnicas de evasão de IA, as organizações devem introduzi-las na sua engenharia de deteção. Análise comportamental - procurando acções como um processo que gera um script que reescreve o código desse mesmo processo - pode detetar anomalias que o malware assistido por IA apresenta. Em suma, os defensores devem combater o fogo com fogo: implementar Ferramentas de segurança baseadas em IA que se adaptem tão rapidamente como o malware orientado para a IA. Isto inclui tudo, desde o antivírus melhorado por IA até à análise do comportamento do utilizador que pode identificar quando uma conta ou sistema começa a agir de forma "não muito humana". Ao adotar a IA para defesa, as equipas de segurança podem contrariar as vantagens de velocidade e escala que a IA concede aos atacantes.
Identidades sintéticas e esquemas de fraude alimentados por IA
Passando do malware para o mundo da fraude: fraude de identidade sintética explodiu com a ajuda da IA generativa. A fraude de identidade sintética envolve a criação de personas fictícias através da combinação de dados reais e falsos (por exemplo, SSN real + nome e documentos falsos). Estas identidades "Frankenstein" são depois utilizadas para abrir contas bancárias, solicitar crédito ou passar nos controlos KYC, o que acaba por resultar em empréstimos não pagos ou no branqueamento de capitais. Já era um dos tipos de fraude com maior crescimento, e a IA veio agora deitar lenha para a fogueira. Prejuízos resultantes da fraude de identificação sintética cruzou $35 mil milhões em 2023[45]e, no início de 2025, algumas estimativas indicavam quase 25% de todas as perdas com fraudes bancárias foram devidos a identidades sintéticas[46]. Os analistas da Experian descobriram que mais de 80% de fraude em novas contas em certos mercados está agora ligado a identificações sintéticas[19] - uma estatística espantosa que sublinha o quão difundida se tornou esta fraude.
A IA generativa amplifica a fraude sintética de várias formas. Em primeiro lugar, a IA torna trivial a produção de "documentos do criador" e as pegadas digitais necessárias para vender uma identidade falsa. No passado, um burlão podia usar o Photoshop numa identificação ou criar manualmente facturas de serviços públicos falsas. Atualmente, existem ferramentas para gerar fotografias de perfil com aspeto autêntico, bilhetes de identidade, passaportes, extractos bancários e até perfis de redes sociais utilizando geradores de imagens de IA e modelos linguísticos[47][48]. Por exemplo, é possível utilizar uma IA para criar uma fotografia realista de uma pessoa que não existe (impedindo pesquisas fáceis de imagens invertidas) e gerar uma carta de condução falsa correspondente com essa fotografia. A IA pode também simular "sinais vitais" de uma identidade - por exemplo, criando registos de pais sintéticos, endereços ou publicações em redes sociais para dar corpo a uma história de fundo[49]. O Fed de Boston observou que a Gen AI pode mesmo produzir deepfake áudio e vídeo de uma pessoa falsa - Por exemplo, um utilizador sintético pode "aparecer" num vídeo de verificação de uma selfie, com um rosto e uma voz únicos, tudo gerado por IA[50].
Em segundo lugar, a IA ajuda os autores de fraudes aumentar a escala as suas operações. Em vez de forjarem uma ou duas identidades de cada vez, podem gerar programaticamente centenas ou milhares de pacotes de identidades completos e preencher automaticamente novos pedidos de conta em massa[51][52]. Alguns serviços da dark web estão efetivamente a oferecer "Identidades sintéticas como um serviço"A IA está a utilizar a automatização para produzir contas verificadas para venda. Durante os programas de auxílio à pandemia da COVID-19, por exemplo, os criminosos utilizaram bots com identidades geradas por IA para se candidatarem em massa a empréstimos e benefícios, sobrecarregando o sistema com candidatos falsos. De acordo com os projectos da Juniper Research, o custo global da fraude de identidade digital (alimentada por estas tácticas) será de aumento de 153% até 2030 em relação a 2025[53].
Medidas defensivas - Verificar a identidade num mundo de IA: Os métodos tradicionais de prova de identidade estão a lutar contra as falsificações criadas pela IA. Para se adaptarem, as organizações estão a adotar verificação de identidade e comportamento em vários níveis reforçada pela IA. Uma camada fundamental é a avançada análise forense de documentos e imagens. Por exemplo, Detetor de imagens com IA do TruthScan e Detetor de documentos falsos fornecem a capacidade de analisar IDs, selfies ou documentos carregados para detetar sinais de síntese ou adulteração. Estas ferramentas examinam artefactos ao nível do pixel, inconsistências de iluminação e metadados para determinar se uma imagem é gerada ou manipulada por IA. Podem detetar pistas subtis - como padrões de fundo idênticos em fotografias geradas por GAN, ou tipos de letra e espaçamento numa identificação que não correspondem a nenhum modelo governamental conhecido. Ao implantar esses detectores na integração, os bancos podem sinalizar automaticamente a carteira de motorista ou selfie de um candidato se ela for provavelmente gerada por IA (por exemplo, o sistema TruthScan teria sinalizado a identidade militar falsa usada no caso de phishing Kimsuky APT[5]). De acordo com um comunicado de imprensa da TruthScan, a sua plataforma tem sido utilizada por instituições financeiras para validar a autenticidade de documentos em grande escala, identificando falsificações profundas com uma precisão extremamente elevada[54].
Outra camada é análise comportamental e verificações de referências cruzadas. As identidades reais têm profundidade: anos de história, registos públicos, atividade nas redes sociais, etc. As identidades geradas por IA, por mais aperfeiçoadas que sejam, carecem frequentemente destas raízes profundas. Os bancos e as instituições de crédito utilizam agora a IA para fazer a correlação cruzada entre os dados das candidaturas e os dados públicos e proprietários: O número de telefone e o e-mail desta pessoa apresentam um historial de utilização? A geolocalização do dispositivo ou do IP faz sentido? A pessoa está a introduzir os dados nos formulários de forma humana ou a fazer copy-paste (como fazem os bots)? Os modelos de IA podem ser treinados para distinguir o comportamento genuíno do cliente de padrões sintéticos. A Reserva Federal observou que "As identidades sintéticas são superficiais, e a IA consegue ver isso" - A verificação baseada em IA pode procurar rapidamente a pegada digital de uma identidade e dar o alarme se for encontrada pouca ou nenhuma[55]. Na prática, os serviços de verificação de identidade empregam agora a IA que verifica se a selfie de um utilizador corresponde a fotografias anteriores (para detetar trocas de rosto) e até solicita aos utilizadores acções aleatórias (como poses ou frases específicas) durante as verificações de vivacidade, tornando mais difícil que os deepfakes respondam corretamente[56][57].
Finalmente, monitorização contínua do comportamento da conta após a integração ajuda a detetar contas sintéticas que escaparam. Uma vez que estas contas não estão associadas a uma pessoa real, os seus padrões de utilização acabam por se destacar (por exemplo, efetuar transacções perfeitamente sincronizadas para criar crédito e, em seguida, atingir o limite máximo). A monitorização de fraudes com base em IA (como as plataformas da Sift ou da Feedzai) pode identificar anomalias na forma como as contas são utilizadas, sinalizando potenciais sintéticos para análise. Em suma, o combate à fraude de identidade com recurso à IA requer Comprovação de identidade baseada em IA - combinando análise forense de documentos, controlos biométricos, correlação de dados e análise comportamental. A boa notícia é que os mesmos avanços de IA que permitem a fraude também estão a ser utilizados para a detetar. O TruthScan, por exemplo, oferece um suite de verificação de identidade que integra a análise de texto, imagem e voz para avaliar os novos utilizadores. Ao utilizar estas ferramentas, um grande banco notou uma queda significativa nas aberturas de contas sintéticas bem sucedidas, mesmo quando as médias do sector estavam a aumentar. A corrida ao armamento continua, mas os defensores estão a aprender a detetar os fracos "sinais digitais" de um sintético, por mais que a IA tente encobrir o seu rasto.
Integrar a deteção de IA em toda a pilha de segurança
Explorámos várias áreas de ameaças distintas - phishing, deepfakes, malware, fraude sintética - todas elas potenciadas pela IA. É evidente que não existe uma ferramenta única ou uma solução única resolverá o desafio. Em vez disso, as empresas precisam de uma estratégia global para incorporar deteção e verificação com base em IA em todos os níveis da sua pilha de cibersegurança. A abordagem deve espelhar a superfície de ataque, abrangendo e-mail, web, voz, documentos, identidade e muito mais. O diagrama abaixo ilustra como as organizações podem integrar as ferramentas de deteção de IA do TruthScan (e soluções semelhantes) em camadas comuns de segurança empresarial:
Integração de ferramentas de deteção de IA em várias camadas da pilha de segurança - desde gateways de correio eletrónico e call centers até à verificação do utilizador e à proteção dos pontos finais. A deteção de conteúdo de IA (centro) analisa texto, imagens, áudio e vídeo em tempo real, alimentando pontos de aplicação que protegem activos e utilizadores.
Neste modelo, os detectores multimodais de IA funcionam como um cérebro central que interage com vários controlos de segurança:
- Gateways de correio eletrónico: Os e-mails recebidos passam por um detetor de texto/chamada de IA antes de chegarem à caixa de entrada. Isto está relacionado com a defesa contra phishing que discutimos - por exemplo, utilizando Detetor de fraudes de e-mail do TruthScan através da API no seu fornecedor de correio eletrónico para colocar automaticamente em quarentena os e-mails suspeitos gerados por IA[18]. Também pode ser aplicado a plataformas de mensagens (aplicações de conversação, gateways SMS) para analisar o conteúdo em busca de padrões de phishing ou de fraude.
- Call Centers e sistemas de voz: Os canais telefónicos e VOIP são protegidos através da integração da deteção de deepfake de voz. Por exemplo, a linha de apoio ao cliente de um banco pode utilizar Detetor de voz com IA do TruthScan analisar o áudio das chamadas recebidas em tempo real e alertar se a impressão vocal de um chamador é sintética ou não corresponde ao seu perfil conhecido[58][59]. Isto ajuda a evitar que os ataques de vishing e de imitação de voz (como chamadas falsas para o CEO) sejam bem sucedidos.
- Processos de verificação da identidade do utilizador: Durante a criação de contas ou acções de utilizador de alto risco (redefinição de palavras-passe, transferências bancárias), a verificação de identidade baseada em IA entra em ação. Uma foto de identificação carregada é examinada por uma ferramenta forense de imagem (por exemplo, verificando se é gerada por IA ou uma foto de uma foto), e uma selfie ou chamada de vídeo é examinada por um detetor de deepfake. O sistema TruthScan Detetor de falsificação profunda pode ser utilizado aqui para efetuar a autenticação facial - garantindo que a pessoa na câmara é real e corresponde à identificação[60][61]. Os sinais comportamentais (cadência de digitação, consistência do dispositivo) também podem ser introduzidos nos modelos de IA para detetar bots ou identidades sintéticas.
- Pontos de extremidade e rede: Os agentes de segurança de terminais e os servidores proxy podem incorporar a análise de conteúdo de IA para ficheiros e scripts. Por exemplo, se um EDR de endpoint vir um novo script ou EXE a ser executado, pode enviar o conteúdo de texto do ficheiro para um detetor de IA para verificar se se assemelha a malware conhecido gerado por IA ou se apresenta caraterísticas de código de IA ofuscado. Da mesma forma, os sistemas DLP (prevenção de perda de dados) podem usar a deteção de texto de IA para sinalizar texto sensível gerado por IA (o que pode indicar que um insider está a usar IA para redigir mensagens de exfiltração de dados ou falsificar relatórios). O sistema TruthScan Detetor em tempo real foi concebido para se ligar a esses fluxos de trabalho, oferecendo uma análise em direto dos conteúdos em todas as plataformas com opções de resposta automatizadas[42][62] (por exemplo, o bloqueio automático de um ficheiro ou mensagem se for identificado como malware ou desinformação gerados por IA).
O principal benefício desta abordagem integrada é velocidade e consistência. Os ataques de IA movem-se rapidamente - e-mails de phishing, vozes falsas e dados sintéticos podem atingir muitos canais ao mesmo tempo. Ao instrumentar todos esses canais com deteção de IA, uma organização ganha visibilidade em tempo real e defesa em profundidade. Uma equipa descreveu-o como a criação de um "sistema imunitário de IA" para a sua empresa: sempre que algo é comunicado (seja um e-mail, um upload de um documento, uma chamada de voz, etc.), o sistema imunitário de IA "fareja" as assinaturas estrangeiras (geradas pela IA) e neutraliza-as se forem consideradas maliciosas.
A suite empresarial do TruthScan é um exemplo disso, uma vez que oferece um plataforma unificada abrangendo texto, imagem, áudio e vídeo Deteção de IA que pode ser implantada modularmente ou como um todo[63][64]. Muitas empresas começam por implementar uma ou duas capacidades (por exemplo, a deteção de texto no correio eletrónico e a deteção de imagens no onboarding) e depois expandem para outras capacidades quando vêem o seu valor. É importante salientar que a integração é mais fácil para o programador - O TruthScan e serviços semelhantes fornecem APIs e SDKs para que as equipas de segurança possam ligar a deteção aos sistemas existentes sem necessidade de uma reengenharia maciça. Quer se trate de um SIEM, de um gateway de correio eletrónico, de uma aplicação bancária personalizada ou de um sistema CRM, a deteção pode ser executada nos bastidores e alimentar alertas ou acções automatizadas. Por exemplo, uma grande plataforma de mídia social integrou APIs de moderação de conteúdo para remover automaticamente vídeos deepfake minutos após o upload[65][66]impedindo a propagação de desinformação gerada por IA.
Conclusão: Manter-se à frente da curva
A rápida proliferação de ameaças impulsionadas por IA em 2025 desafiou as organizações de novas formas. Os atacantes encontraram meios de explorar a confiança humana em escala - personificando vozes e identidades, automatizando a engenharia social, evitando defesas por meio de código adaptável e fabricando realidades falsas inteiras. É uma perspetiva assustadora para os defensores, mas não desesperada. Tal como os criminosos estão a tirar partido da IA, também nós podemos colocar a IA do lado da segurança. O aparecimento de Deteção de conteúdos com IA, análise forense de deepfake e scanners de identidade sintética dá-nos poderosas respostas a estas novas ameaças. Ao utilizar estas ferramentas e integrando-os em todos os níveis de defesa, as empresas podem reduzir drasticamente o risco de ataques alimentados por IA. Os primeiros utilizadores já frustraram tentativas de fraude de vários milhões de dólares ao apanharem deepfakes em flagrante[26]ou evitou desastres de phishing filtrando os e-mails criados por IA.
Para além da tecnologia, as organizações devem cultivar uma cultura de "confiar mas verificar". Os funcionários devem estar conscientes de que, na era da IA, ver (ou ouvir) nem sempre é acreditar - um ceticismo saudável aliado a fluxos de trabalho de verificação pode travar muitos estratagemas de engenharia social. Formação e consciencialização, combinadas com ferramentas de verificação automática como o TruthScanformam uma defesa formidável. De certa forma, temos de elevar a fasquia da autenticação e da validação da informação. As comunicações e os documentos digitais já não podem ser tomados pelo seu valor nominal; a sua proveniência tem de ser verificada, quer por máquina quer por processo.
À medida que avançamos, esperamos que os atacantes aperfeiçoem ainda mais as suas tácticas de IA - mas também esperamos uma inovação contínua na IA defensiva. A dinâmica do gato e do rato vai manter-se. O sucesso dos defensores dependerá de agilidade e partilha de informações. Aqueles que incorporarem rapidamente novas informações sobre ameaças (por exemplo, novas técnicas de deteção de deepfake ou assinaturas de modelos de IA actualizadas) ficarão à frente dos atacantes que utilizam as mais recentes ferramentas de IA. As colaborações entre a indústria, o meio académico e o governo também serão vitais nesta luta, como se pode ver pelos alertas e quadros emergentes de agências como o Quadro de Gestão de Riscos de IA do NIST e as colaborações interbancárias na deteção de fraudes com IA.
Para concluir, o sector da cibersegurança está no meio de uma mudança de paradigma impulsionada pela IA. As ameaças são diferentes das de há uma década, mas estamos a enfrentá-las com defesas igualmente sem precedentes. Com uma combinação de tecnologia de deteção avançada e uma estratégia de segurança robusta, nós podes mitigar os riscos da IA generativa e até transformá-la numa vantagem para nós. Ferramentas como o conjunto de deteção de IA do TruthScan permitem-nos restaurar a confiança num mundo de confiança zero - para garantir que a pessoa do outro lado da linha é real, que o documento na nossa caixa de entrada é autêntico e que o código executado na nossa rede não foi adulterado por uma IA maliciosa. Ao investirem agora nestas capacidades, as organizações não só se protegerão dos ataques actuais com IA, como também criarão resiliência contra as ameaças em evolução do futuro. A conclusão é clara: A IA pode estar a potenciar os ciberataques, mas, com a abordagem certa, também pode potenciar as nossas defesas.
Fontes: Os dados e exemplos relevantes foram retirados de 2025 relatórios de informações sobre ameaças e de peritos, incluindo o relatório Cyber Incident Trends da Mayer Brown[1][67], resumo das ameaças de 2025 da Fortinet[2][19]Investigação da Barracuda sobre ataques de IA por correio eletrónico[6][7]Relatório sobre a ameaça da IA do Google GTIG[34]A Reserva Federal de Boston analisa a fraude sintética[45][50]e os estudos de casos e comunicados de imprensa publicados pelo TruthScan[30][26]entre outros. Estes factos ilustram o âmbito das ameaças orientadas para a IA e a eficácia das contramedidas centradas na IA em cenários do mundo real. Aprendendo com essa inteligência e implementando ferramentas de ponta, podemos navegar com confiança na era do risco cibernético reforçado pela IA.
[1] [67] 2025 Tendências de incidentes cibernéticos O que a sua empresa precisa de saber | Insights | Mayer Brown
[2] [3] [19] Principais estatísticas sobre cibersegurança: Factos, estatísticas e violações para 2025
[4] [11] [12] [16] [17] [20] [22] [47] [48] [52] Fraude orientada por IA em serviços financeiros: Tendências e soluções recentes | TruthScan
[5] [26] [30] [54] TruthScan detecta ataque Deepfake norte-coreano a funcionários da Defesa - Bryan County Magazine
[6] [7] [14] Metade do spam na sua caixa de entrada é gerado por IA - a sua utilização em ataques avançados está numa fase inicial | Barracuda Networks Blog
[8] [10] Índice de confiança digital do segundo trimestre de 2025: Dados e informações sobre fraudes de IA | Sift
[9] [13] [24] [25] [38] [39] Ameaças à cibersegurança da IA em 2025: $25.6M Deepfake
[15] [21] Informações mais recentes sobre ameaças | TruthScan
[18] [63] [64] TruthScan - Deteção de IA empresarial e segurança de conteúdos
[23] [46] [56] [57] Deepfakes e depósitos: Como combater a fraude de IA generativa
[27] Ataques Deepfake e phishing gerado por IA: estatísticas de 2025
[28] [58] [59] Detetor de voz AI para Deepfakes e clonagem de voz | TruthScan
[29] [31] [60] [61] [65] [66] Deepfake Detetor - Identificar vídeos falsos e de IA - TruthScan
[32] [33] [34] [35] [36] [37] [41] GTIG AI Threat Tracker: Avanços na utilização de ferramentas de IA por actores de ameaças | Blogue do Google Cloud
[40] Hackers ofuscam malware com código de IA verboso
[42] [43] [62] Deteção de IA em tempo real - TruthScan
[44] Os operadores da EvilAI utilizam código gerado por IA e aplicações falsas para ...
[45] [49] [50] [51] [55] A geração IA está a aumentar a ameaça de fraude de identidade sintética - Federal Reserve Bank of Boston
[53] Fraude de identidade sintética 2025: Estratégias de deteção e prevenção de IA