O uso de Inteligência Artificial para manipulação de vídeos, imagens e áudios — os chamados deepfakes — vem crescendo no país. Dados do Panorama da Desinformação no Brasil, elaborado pelo Observatório Lupa, mostram que os casos envolvendo conteúdos que simulam situações reais passaram de 39 em 2024 para 159 em 2025, um crescimento de 308%.

Segundo o levantamento, no ano passado, mais de três quartos dos conteúdos com IA checados pelo estudo exploraram a imagem ou a voz de pessoas conhecidas, principalmente lideranças políticas. Esses números reforçam a necessidade de atenção diante da sofisticação dessas ferramentas em ambientes digitais como Facebook, Instagram, Threads, WhatsApp, Telegram, X, Kwai e Tiktok.

A tecnologia por trás dessas manipulações utiliza sistemas treinados com milhares de imagens, vídeos ou gravações reais. A partir dessa base, os programas aprendem padrões de fala, expressões faciais e movimentos corporais para criar versões falsas convincentes. Para Josué Adil, CEO da Acadi-TI, empresa de capacitação em cibersegurança, o aumento dos casos demonstra que a tecnologia se tornou mais acessível e difícil de identificar a olho nu. “Os deepfakes estão cada vez mais realistas e circulam com rapidez nas redes sociais e aplicativos de mensagens. A prevenção começa pela desconfiança e pela verificação”, afirma.

Apesar da sofisticação, o especialista alerta que ainda há sinais que podem indicar manipulação. “Os olhos costumam entregar. Piscadas muito mecânicas, olhar sem profundidade ou desalinhado em relação ao movimento do rosto são indícios possíveis”, explica. Pequenos descompassos entre o áudio e o movimento labial, voz excessivamente uniforme ou metálica e textura de pele artificialmente lisa também merecem atenção, completa.

Mãos e gestos são outro ponto sensível. “A inteligência artificial ainda encontra dificuldades para reproduzir movimentos complexos. Dedos em posições improváveis, rigidez corporal ou sombras incoerentes podem indicar adulteração”, diz. Textos distorcidos, logotipos com grafia incorreta e elementos visuais que não acompanham corretamente a iluminação do ambiente também funcionam como alerta.

Além da análise visual e sonora, a orientação é observar o contexto. “Mesmo que a imagem pareça real, é importante perguntar se aquela situação faz sentido. Há confirmação em veículos confiáveis? A cena é compatível com a rotina daquela pessoa? Muitas vezes, a inconsistência está na narrativa”, explica.

O especialista alerta que os conteúdos costumam circular em grupos organizados, com uso de bots para distribuição automatizada e compartilhamento em aplicativos de mensagem, como o Telegram, além de fóruns na dark web. A orientação é sempre observar detalhes que muitas vezes passam despercebidos. “Mesmo que o vídeo pareça muito real, é importante questionar se aquela situação faz sentido e buscar confirmação antes de compartilhar. Muitas vezes, o erro não está na imagem em si, mas na história que a acompanha”.

O que fazer ao identificar um deepfake

  • Agir rapidamente: quanto antes a vítima reagir, maiores as chances de reduzir a disseminação do conteúdo.
  • Preservar as provas antes de qualquer pedido de remoção: salvar links, capturas de tela, vídeos, áudios e mensagens relacionadas.
  • Buscar apoio: se estiver emocionalmente abalada, a vítima pode pedir ajuda a alguém de confiança para reunir os registros, evitando revitimização.
  • Mapear a circulação do material: identificar as plataformas envolvidas, perfis responsáveis e contexto da publicação fortalece eventuais denúncias.
  • Organizar as informações: reunir dados sobre onde o conteúdo está hospedado, quem publicou e quando foi divulgado evita a perda de elementos importantes para investigação.
  • Formalizar a preservação da prova digital: serviços especializados podem registrar tecnicamente o conteúdo, garantindo validade jurídica.
  • Denunciar nas plataformas: após reunir as evidências, acionar os canais oficiais para reportar o material como conteúdo íntimo não consensual ou assédio.

deepfake

Com as provas em mãos, o próximo passo é procurar uma delegacia para registrar um Boletim de Ocorrência (B.O.). “É um crime cuja responsabilidade é de quem produziu e de quem compartilha. Em muitos casos, a vítima ainda pode necessitar de apoio jurídico e psicológico para lidar com as consequências”, pontua.

Acadi-TI Cyber Summit 2026

No dia 21 de março, a Acadi-TI promove o Cyber Summit 2026, evento voltado à discussão sobre segurança na era da IA. A programação inclui palestras com especialistas da área, com temas como “Deepfakes e Fraude de Identidade: Do Golpe ao Controle”. Para mais informações, acesse o site.

Sobre a Acadi-TI

Criada em 2012, a Acadi-TI é referência nacional em formação em Cibersegurança. Responsável pelo primeiro curso superior em Cibersegurança do Brasil com integração de certificações globalmente reconhecidas, a empresa lidera o mercado brasileiro de treinamentos na área e já formou mais de 51 mil profissionais. A Acadi-TI foi reconhecida três vezes como Melhor ATC (Authorized Training Center) da América Latina pela EC-Council e oferece mais de 50 certificações internacionais.

Leia + sobre  tecnologia e ciência