Como a GPT-4o está a utilizar a IA para a fraude de identidade

Porque é que a mais recente descoberta da OpenAI se tornou a mais recente dor de cabeça de todos os executivos

A experiência que quebrou a Internet

Em abril de 2025, uma simples experiência nas redes sociais abalou todo o mundo da cibersegurança. Os utilizadores descobriram que o GPT-4o da OpenAI podia gerar cartões Aadhaar falsos realistasO sistema de identificação nacional da Índia, que abrange mais de 1,3 mil milhões de pessoas. Em apenas algumas horas, as plataformas das redes sociais foram inundadas com documentos de identidade gerados por IA, que incluíam toda a gente, desde cidadãos comuns a figuras públicas como Sam Altman e Elon Musk.

Os números eram assustadores. Desde o seu lançamento, o GPT-4o da OpenAI já criou mais de 700 milhões de imagens.

O que começou por ser uma experimentação criativa com retratos ao estilo do Studio Ghibli rapidamente evoluiu para algo mais preocupante. Os utilizadores começaram a partilhar maquetas fotorrealistas de cartões de identificação do governo, completas com códigos QR, formatação oficial e detalhes pessoais fabricados que pareciam perturbadoramente autênticos.

Deteção de IA Deteção de IA

Nunca mais se preocupe com fraudes de IA. TruthScan Pode ajudar-vos:

  • Detetar a IA gerada imagens, texto, voz e vídeo.
  • Evitar grandes fraudes impulsionadas pela IA.
  • Proteja os seus mais sensível activos da empresa.
Experimenta GRATUITAMENTE

A tecnologia por detrás da ameaça: Porque é que o GPT-4o é diferente

Uma nova classe de geração de imagens com IA

Ao contrário do DALL-E, o GPT-4o está integrado no ChatGPT. Essa mudança dá-lhe novas capacidades, mas também cria novos riscos.

Tal como a OpenAI reconheceu na sua documentação oficial do sistema: "Estas capacidades, isoladamente ou em novas combinações, têm o potencial de criar riscos numa série de áreas, de formas que os modelos anteriores não conseguiam."

O problema da acessibilidade

A democratização da tecnologia de geração de imagens criou aquilo a que os especialistas chamam a "tempestade perfeita" para a fraude de identidade.

Em primeiro lugar, não são necessárias competências técnicas. Qualquer pessoa pode criar documentos falsos, bastando escrever um pedido em linguagem natural. Os resultados são fotorrealistas, correspondendo exatamente aos layouts, tipos de letra e designs oficiais.

Em apenas alguns minutos, é possível produzir identidades falsas em grande escala. E como a tecnologia funciona em sistemas de identificação de diferentes países, a ameaça é global.

Preocupações com os dados de formação

O mais preocupante é a questão das fontes de dados. Os utilizadores têm questionado onde é que o GPT-4o obteve os dados de treino para reproduzir documentos governamentais com tanta precisão. Os utilizadores interrogam-se sobre onde o modelo obteve os dados fotográficos Aadhaar para treino e como pôde aprender o formato com tanta precisão. 

A escala da fraude de imagem com IA: Uma crise crescente

As estatísticas actuais mostram um quadro terrível

A fraude gerada por IA representa uma das ameaças de crescimento mais rápido na cibersegurança:

  • A taxa de fraude global aumentou de 1,10% em 2021 para 2,50% em 2024, um aumento de 127% em apenas três anos
  • Os documentos falsos ou alterados são responsáveis por 50% de todas as tentativas de fraude em 2024, de acordo com o Relatório de Fraude de Identidade da Sumsub
  • As falsificações digitais com recurso à IA generativa representam atualmente 57% de toda a fraude documental, um aumento de 244% em relação ao ano anterior
  • A fraude de identidade relacionada com o Deepfake aumentou dez vezes em 2023 em comparação com o ano anterior

Impacto financeiro em todos os sectores

As consequências económicas já são graves e estão a acelerar:

  • A fraude baseada na IA poderá custar $10,5 triliões a nível mundial em 2025, de acordo com a LexisNexis
  • A fraude de identidade sintética registou um aumento de 31% os autores de fraudes exploram cada vez mais a IA
  • Metade de todas as empresas inquiridas sofreram fraudes envolvendo conteúdos gerados por IA em 2024
  • As perdas globais resultantes da fraude digital atingiram mais de $47,8 mil milhões em 2024, reflectindo um aumento de 15%

O ponto cego dos executivos: Porque é que a liderança não está preparada

O défice de sensibilização

Embora tenha havido um crescimento da ameaça, a maioria dos executivos ainda mal se apercebeu disso:

  • 76% dos inquiridos consideram que houve um aumento dos requisitos regulamentares apelando a uma verificação mais rigorosa da identidade
  • Os canais digitais são atualmente responsáveis por 51% de fraudeultrapassando pela primeira vez os canais físicos
  • Apenas 43% das organizações financeiras utilizam métodos de verificação avançados quando surgem sinais de alerta de fraude
  • A maioria das organizações não dispõe de estratégias abrangentes de deteção de fraudes com IA

O défice de formação

O fosso entre as novas ameaças e o grau de preparação das organizações tem vindo a aumentar. A maior parte da formação em segurança ainda não abrange as burlas criadas pela IA, pelo que os funcionários não estão preparados. Ainda não existe um conhecimento generalizado sobre deepfakes e imagens de IA, e os procedimentos de verificação não se adaptaram à documentação gerada por IA. Por último, as capacidades de deteção ainda são insuficientes em comparação com a tecnologia de geração. 

Impacto na indústria: Sectores sob cerco

Sectores mais vulneráveis

Com base nas estatísticas de fraude de 2024, os sectores que enfrentam o maior risco incluem

  1. Plataformas de encontros (taxa de fraude de 8,9%): Fraudes românticas que utilizam perfis falsos com documentos gerados por IA
  2. Media online (taxa de fraude de 4,27%): Contorno da verificação da conta utilizando documentos sintéticos
  3. Banca e seguros (taxa de fraude de 3,14%): Fraude na abertura de contas e empréstimos
  4. Criptomoeda (88% de casos de deepfake): Contorno KYC utilizando identidades geradas por IA

A corrida ao armamento tecnológico: Deteção vs. Geração

Capacidades de deteção actuais

As organizações que investiram fortemente em ferramentas baseadas em IA para combater a fraude gerada por IA começaram a ver resultados: Os sistemas de deteção de fraudes baseados em IA já ajudaram as empresas a reduzir os casos de fraude em cerca de 30%.

Estão também a ser exploradas outras tecnologias. As cadeias de blocos podem proporcionar uma maior segurança dos dados, embora ainda necessitem de uma maior adoção para serem eficazes.

 A verificação biométrica, quando combinada com a análise de documentos, cria uma forma mais fiável de autenticação.

Por último, a deteção em tempo real está a tornar-se uma poderosa salvaguarda. Confirma que uma pessoa está realmente presente e impede os criminosos de utilizarem imagens estáticas falsas durante a verificação.

O fosso da sofisticação

No entanto, existe uma disparidade preocupante entre a confiança na deteção e a prevenção efectiva:

  • A percentagem de inquiridos que confiam nas empresas de tecnologia para manter os dados biométricos seguros caiu de 29% em 2022 para 5% em 2024
  • Muitas organizações sobrestimam as suas capacidades de deteção subestimando a sofisticação das ameaças
  • As medidas de segurança tradicionais revelam-se inadequadas contra documentos gerados por IA
  • A evolução da tecnologia de deteção fica aquém dos avanços da geração

Resposta regulamentar: O cenário jurídico

Quadro jurídico atual

Os governos de todo o mundo estão a esforçar-se por combater a fraude documental gerada pela IA, com melhorias lentas: 

  • O regulamento eIDAS da UE entrou em vigor em maio de 2024, exigindo uma verificação mais rigorosa da identidade digital
  • Vários países reforçaram as protecções em torno dos dados relativos aos cuidados de saúde e da verificação da identidade
  • Novos regulamentos exigem transparência em processos de verificação de identidade baseados em IA
  • Sanções penais existem para a utilização fraudulenta de documentos gerados por IA

Construir a defesa executiva: Uma estratégia de proteção abrangente

Como a GPT-4o está a utilizar a IA para a fraude de identidade

1. Avaliação imediata dos riscos

Auditoria dos actuais processos de verificação: Reveja a forma como a sua organização valida atualmente os documentos de identidade e identifique as vulnerabilidades de fraude da IA.

Identificar pontos de contacto de alto risco: Mapeie todos os pontos em que os documentos de identidade são aceites, a integração, a recuperação de contas, as transacções de elevado valor e a verificação da conformidade.

Avaliar as capacidades de deteção: Avaliar se os sistemas actuais podem identificar documentos gerados por IA ou se são necessárias actualizações.

2. Soluções tecnológicas

Análise avançada de imagens: Implementar sistemas de deteção alimentados por IA que possam identificar inconsistências subtis em documentos gerados por IA:

  • Análise de textura: Detetar padrões não naturais em fundos de documentos e caraterísticas de segurança
  • Verificação de consistência: Verificar o alinhamento entre tipos de letra, espaçamento e formatação oficial
  • Exame de metadados: Analisar os dados de criação de imagens para detetar sinais de geração de IA
  • Verificação em tempo real: Implementar sistemas que possam processar documentos instantaneamente durante as interações com os clientes

Verificação multi-fator: Combinar a análise de documentos com métodos de verificação adicionais:

  • Verificação de bases de dados governamentais: Referência cruzada de números de documentos com bases de dados oficiais
  • Correspondência biométrica: Utilizar o reconhecimento facial para fazer corresponder fotografias de documentos a pessoas reais
  • Análise comportamental: Monitorizar os padrões de comportamento dos utilizadores durante os processos de verificação

3. Formação e sensibilização

Educação executiva: As equipas de liderança necessitam de formação específica sobre os riscos de fraude com imagens de IA e as implicações comerciais de uma verificação inadequada.

Programas de formação para funcionários: O pessoal da linha da frente necessita de formação sobre:

  • Técnicas de deteção visual: Como detetar potenciais documentos gerados por IA
  • Procedimentos de verificação: Quando e como encaminhar documentos suspeitos
  • Integração tecnológica: Como utilizar eficazmente as ferramentas de deteção

Actualizações em curso: Actualizações regulares da formação à medida que as técnicas de geração de IA evoluem.

4. Redesenho de processos

Protocolos de verificação: Implementar a verificação em várias etapas para cenários de alto risco:

  • Revisão de documentos primários: Avaliação inicial utilizando a tecnologia de deteção
  • Verificação secundária: Referência cruzada de bases de dados para autenticidade de documentos
  • Confirmação terciária: Verificação adicional para casos suspeitos ou de elevado valor

Tratamento de excepções: Procedimentos claros para a gestão de documentos que não são verificados ou que apresentam sinais de geração de IA.

A solução: Deteção de imagens com IA de nível empresarial

Porque é que as abordagens tradicionais falham

As verificações normais de documentos foram concebidas para detetar falsificações antigas, não documentos criados por IA. A moderna geração de imagens por IA necessita de capacidades de deteção igualmente sofisticadas.

As actuais lacunas de verificação incluem:

  • Erro humano: Os revisores manuais não conseguem identificar de forma fiável documentos sofisticados gerados por IA
  • Análise técnica limitada: A verificação básica centra-se em alterações óbvias, deixando de fora indicadores subtis de IA
  • Limitações da escala: Os processos manuais não conseguem lidar com o volume de tentativas de fraude geradas pela IA
  • Atraso de evolução: Os procedimentos de verificação estática não se podem adaptar à rápida evolução das técnicas de IA

A necessidade de uma deteção de IA especializada

As organizações que pretendem proteger-se contra a fraude de imagem com IA necessitam de sistemas de deteção especificamente concebidos para o efeito:

  • Analisar marcadores de geração de IA: Detetar artefactos subtis e padrões exclusivos das imagens geradas por IA
  • Processamento em tempo real: Fornecer uma análise imediata durante a apresentação do documento
  • Aprendizagem contínua: Adaptar-se às novas técnicas de geração de IA à medida que vão surgindo
  • Capacidades de integração: Trabalhar sem problemas com os fluxos de trabalho de verificação existentes

Os sistemas de deteção de imagens com IA eficazes utilizam algoritmos avançados para identificar:

  • Inconsistências ao nível do pixel: Padrões subtis que indicam a geração de IA
  • Artefactos de compressão: Assinaturas digitais dos processos de criação de imagens com IA
  • Anomalias estatísticas: Padrões matemáticos que diferem das imagens naturais
  • Inconsistências temporais: Sinais de manipulação ou geração de imagens

O resultado final: A fraude de imagem com IA está aqui e a acelerar

Como a GPT-4o está a utilizar a IA para a fraude de identidade

As estatísticas são inegáveis: A fraude documental gerada por IA evoluiu de uma ameaça teórica para uma realidade atual, causando perdas de milhares de milhões. 

Com mais de 700 milhões de imagens já geradas apenas pelo GPT-4o, e com as capacidades de IA a avançarem rapidamente, as organizações enfrentam uma ameaça crescente que as medidas de segurança tradicionais não conseguem resolver.

A janela para uma defesa proactiva está a fechar-se rapidamente.

A tecnologia para gerar documentos falsos convincentes está agora acessível a qualquer pessoa com acesso à Internet. Entretanto, a sofisticação dos documentos gerados por IA continua a melhorar, tornando a deteção cada vez mais difícil para os revisores humanos e para os sistemas de verificação básicos. 

As organizações que se recusam a adaptar os seus processos de verificação a esta nova realidade enfrentam muitos riscos:

  • Perdas financeiras diretas: Contra a fraude utilizando documentos gerados por IA
  • Sanções regulamentares: Por não cumprir os requisitos de verificação reforçada
  • Danos à reputação: De ser associado a incidentes de fraude de identidade
  • Perturbação operacional: Dos esforços de investigação e correção

A questão não é se a sua organização irá deparar-se com fraude documental gerada por IA, mas sim se estará preparado para a detetar e prevenir.

Existe tecnologia para combater a fraude gerada por IA. Os sistemas de deteção avançados podem identificar os marcadores subtis que distinguem os documentos gerados por IA dos documentos genuínos. Mas a implementação requer uma ação imediata, uma vez que a ameaça evolui diariamente.

As empresas precisam agora de investir em capacidades abrangentes de deteção de imagens com IA, ou correm o risco de se tornarem mais uma vítima na categoria de fraude de crescimento mais rápido dos nossos tempos.


Para os executivos prontos para proteger as suas organizações contra a fraude de imagem com IA, a tecnologia de deteção avançada está disponível hoje. Saiba como a deteção de imagens com IA de nível empresarial pode proteger seus processos de verificação em truthscan.com/ai-image-detetor.

Referências

  1. Outlook Money. "ChatGPT pode gerar cartões Aadhaar e PAN falsos: Aqui está o que você precisa saber". Outlook Money, 5 de abril de 2025. https://www.outlookmoney.com/news/chatgpt-can-generate-fake-aadhaar-pan-cards-heres-what-you-need-to-know
  2. Negócios Hoje. "Fake Aadhaar, PAN com ChatGPT: Como identificar provas reais de identificação do governo; verifique as etapas." Negócios Hoje, 5 de abril de 2025. https://www.businesstoday.in/personal-finance/news/story/fake-aadhaar-pan-with-chatgpt-how-to-identify-real-government-id-proofs-check-steps-470849-2025-04-05
  3. Padrão de Negócios. "O ChatGPT pode gerar cartões Aadhaar e PAN falsos: Como os verificar". Padrão de Negócios, 7 de abril de 2025. https://www.business-standard.com/finance/personal-finance/chatgpt-can-generate-fake-aadhaar-pan-cards-how-to-verify-them-125040700728_1.html
  4. Notícias OneIndia. "O ChatGPT pode criar cartões Aadhaar e cartões PAN? Os internautas bombardeiam as redes sociais com cartões de identificação falsos". Notícias OneIndia, 4 de abril de 2025. https://www.oneindia.com/india/can-chatgpt-create-aadhaar-cards-pan-cards-netizens-bombard-social-media-with-fake-id-cards-4114335.html
  5. Negócios Hoje Tecnologia. "Os cartões Aadhaar falsos suscitam preocupação, uma vez que a ferramenta de imagem do ChatGPT atinge 700 milhões de criações." Negócios Hoje, 4 de abril de 2025. https://www.businesstoday.in/technology/news/story/fake-aadhaar-cards-spark-concern-as-chatgpts-image-tool-hits-700-million-creations-470750-2025-04-04
  6. DinheiroVida. "Alerta de fraude: IAs criando cartões Aadhaar e PAN 'falsos' de aparência genuína!" DinheiroVida. https://www.moneylife.in/article/fraud-alert-ais-creating-genuinelooking-fake-aadhaar-pan-cards/76873.html
  7. Mercado de informações sobre dados. "ChatGPT desperta receios de fraude de identificação: Pode realmente gerar cartões Aadhaar e PAN falsos?" Mercado de informações sobre dados. https://www.datainsightsmarket.com/news/article/chatgpt-can-generate-fake-aadhaar-pan-cards-13557
  8. Anjo Um. "ChatGPT pode gerar cartões Aadhaar e PAN falsos: Como os verificar". Anjo Um, 8 de abril de 2025. https://www.angelone.in/news/chatgpt-can-generate-fake-aadhaar-and-pan-cards-how-to-verify-them
  9. Atualização biométrica. "As redes sociais fervilham com passaportes e bilhetes de identidade gerados pelo ChatGPT". Atualização biométrica, 11 de abril de 2025. https://www.biometricupdate.com/202504/social-buzzes-with-chatgpt-generated-passports-and-id-cards
  10. Diário Munsif. "Ferramenta de imagem do ChatGPT usada para gerar cartões Aadhaar e PAN, preocupações com privacidade e uso indevido". Diário Munsif, 4 de abril de 2025. https://munsifdaily.com/chatgpts-image-tool-used-to-generate-aadhaar-and-pan-cards/
  11. Snappt. "Tendências de verificação de ID para 2025 e perspectivas futuras". Snappt, 4 de agosto de 2025. https://snappt.com/blog/id-verification-trends/
  12. Snappt. "Estatísticas de fraude de identidade para 2025". Snappt, 20 de novembro de 2024. https://snappt.com/blog/identity-fraud-statistics/
  13. Sumsub. "Tendências de fraude para 2025: From AI-Driven Scams to Identity Theft and Fraud Democratization". Sumsub. https://sumsub.com/blog/fraud-trends-sumsub-fraud-report/
  14. Sumsub. "Estatísticas de roubo de identidade e fraude de 2024". Sumsub. https://sumsub.com/fraud-report-2024/
  15. arXiv. "Deteção de fraude de identidade baseada em IA: A Systematic Review". arXiv, 16 de janeiro de 2025. https://arxiv.org/html/2501.09239v1
  16. Confiar. "Identity Verification Trends in 2025 and Beyond" (Tendências da verificação da identidade em 2025 e mais além). Confiar, 5 de agosto de 2025. https://www.entrust.com/blog/2025/02/identity-verification-trends-in-2025-and-beyond
  17. Incode. "Os 5 principais casos de fraude de AI Deepfake de 2024 expostos". Blogue Incode, 20 de dezembro de 2024. https://incode.com/blog/top-5-cases-of-ai-deepfake-fraud-from-2024-exposed/
  18. Sistemas Mitek. "Previsões de Fraude para 2025: Insights on Emerging Fraud Threats". Sistemas Mitek, 12 de dezembro de 2024. https://www.miteksystems.com/blog/2025-fraud-predictions-industry-innovators
  19. Centro KYC. "As 7 principais tendências de verificação de identidade para 2025". Centro KYC, 30 de dezembro de 2024. https://www.kychub.com/blog/identity-verification-trends/

Direitos autorais © 2025 TruthScan. Todos os direitos reservados