Golpes com inteligência artificial avançam e tornam fraudes mais difíceis de identificar
Leia + sobre tecnologia e ciência

A incorporação da inteligência artificial às interações digitais tem redefinido a lógica dos golpes no Brasil ao reduzir a distância entre fraude e situações do cotidiano, fazendo com que abordagens deixem de apresentar sinais evidentes e passem a se manifestar como contatos bancários, mensagens de familiares ou comunicações institucionais, criando um ambiente em que a identificação imediata se torna mais difícil e aumenta a probabilidade de decisões tomadas sem verificação prévia.
Esse cenário ganha ainda mais dimensão no estado de São Paulo, onde dados divulgados em 2026 pela Fundação Seade mostram que 82% dos idosos já foram alvo de tentativas de golpes digitais e 12% efetivamente sofreram fraudes, incluindo abertura de contas e contratação de crédito indevido, enquanto 68% desse público afirma não conseguir se proteger nesse ambiente; em paralelo, levantamento da Agência Lupa indica que a produção de conteúdos falsos com uso de inteligência artificial cresceu 308% entre 2024 e 2025, evidenciando uma mudança estrutural na forma como essas fraudes são construídas e disseminadas.
Para o especialista Gui Zanoni, o avanço da inteligência artificial desloca o ponto de atenção do usuário ao substituir indicadores tradicionais de fraude por interações construídas com base em dados comportamentais e simulação de identidade. “A inteligência artificial não apenas replica voz e imagem, mas combina esses elementos com contexto, linguagem e padrões de comportamento previamente mapeados, criando uma narrativa coerente e difícil de contestar em tempo real. Isso reduz a necessidade de erro técnico no golpe e transfere o risco para a capacidade de verificação do usuário”, afirma.
O modelo de fraude opera a partir da construção de familiaridade, inserindo a abordagem em situações reconhecíveis pelo usuário, como atendimentos bancários, pedidos atribuídos a contatos próximos ou comunicações que reproduzem linguagem institucional, o que reduz a percepção de risco e favorece respostas imediatas. “A tecnologia permite reproduzir não apenas voz e imagem, mas também padrões de linguagem, tempo de resposta e contexto de interação, criando uma sequência de validações cognitivas que levam o usuário a confiar antes de questionar”, explica o especialista em IA.
Entre os recursos mais utilizados estão a clonagem de voz, a manipulação de vídeos e a criação de identidades digitais simuladas, que ampliam a credibilidade das abordagens e dificultam a verificação imediata das informações recebidas.
Outro exemplo de golpe que sido aplicado frequentemente é o uso indevido da imagem de artistas, influenciadores e personalidades públicas em campanhas falsas que circulam em redes sociais e aplicativos de mensagem, nas quais vídeos e áudios gerados por inteligência artificial simulam depoimentos e recomendações para induzir a compra de produtos ou serviços inexistentes.
Em 2025, conteúdos desse tipo circularam nas redes sociais utilizando a imagem da modelo Gisele Bündchen em anúncios de produtos que não tinham qualquer relação com a artista, explorando sua credibilidade para dar aparência de legitimidade às ofertas e induzir consumidores ao erro, com relatos de vítimas que realizaram pagamentos por itens que nunca foram entregues.
“A combinação de síntese de voz, reconstrução facial e modelagem de comportamento permite criar conteúdo que não apenas replica a imagem de uma pessoa, mas incorpora padrões de comunicação e posicionamento, o que ativa mecanismos de confiança previamente estabelecidos no público. Quando essa representação é associada a figuras públicas com alta credibilidade, o usuário tende a reduzir o nível de verificação e aceitar a mensagem como legítima, que é exatamente o ponto de conversão explorado pela fraude”, esclarece Gui.
A identificação de conteúdo manipulado passa a exigir atenção a sinais técnicos de que nem sempre são perceptíveis de forma clara, o que amplia o desafio para o usuário comum diante de interações cada vez mais sofisticadas. “Desalinhamento entre áudio e movimento labial, padrões artificiais de expressão facial e pequenas falhas na construção do vídeo ou do som podem indicar manipulação, mas esses indícios não aparecem de forma consistente em todos os casos”, afirma.
O especialista em IA, Gui Zanoni, elaborou orientações práticas que podem auxiliar o público a reduzir riscos em interações digitais cada vez mais sofisticadas.
Cinco orientações para identificar e evitar golpes com IA
- Não validar informações apenas por áudio ou vídeo, mesmo quando envolvem pessoas conhecidas;
- Confirmar solicitações por um segundo canal independente antes de qualquer ação;
- Desconfiar de abordagens que envolvam urgência ou pressão emocional;
- Observar inconsistências visuais e sonoras em conteúdos digitais;
- Evitar compartilhar dados pessoais, códigos ou imagens sem verificação.
De acordo com Gui Zanoni, as fraudes devem avançar na mesma velocidade das ferramentas digitais e se tornarem menos perceptíveis no cotidiano, exigindo uma mudança estrutural na forma como as pessoas validam informações. “A inteligência artificial não amplia apenas o alcance dos golpes, ela redefine o que é percebido como confiável no ambiente digital, e a resposta a isso está na criação de novos hábitos de verificação antes de qualquer decisão”, conclui.
+ NOTÍCIAS NO GRUPO NM DO WHATSAPP