Avanço da inteligência artificial acende alerta sobre confiança na ciência

Estudo levanta debate sobre riscos do uso indiscriminado de IA na comunicação científica e reforça a necessidade de supervisão humana e transparência

O uso de ferramentas de inteligência artificial (IA) na comunicação científica tem transformado a forma como a informação é produzida e compartilhada. No entanto, especialistas alertam: sem transparência e curadoria humana, essa prática pode abalar a confiança pública na ciência.

Essa é a principal reflexão trazida no ensaio “Confiança interpessoal na era da comunicação científica com inteligência artificial”, publicado como preprint no repositório TechRxiv. O texto, de autoria de Diego Nogare — especialista em ciência da computação com foco em IA — e Ismar Frango Silveira — professor e pesquisador na Mackenzie (SP) —, levanta questionamentos sobre os impactos éticos e sociais do uso automatizado de IA na divulgação científica.

A análise argumenta que a confiança em conteúdos científicos nasce, principalmente, da mediação humana. Quando a produção de informação é delegada exclusivamente a sistemas automatizados, principalmente quando o assunto não é da área de domínio daquele divulgador científico — que muitas vezes operam como “caixas-pretas”, sem clareza de critérios ou fontes — o público pode se sentir enganado.

Além disso, algoritmos alimentados por bases de dados enviesadas correm o risco de reforçar distorções, gerando desinformação mesmo sob a aparência de rigor técnico.

“Não estamos falando de uma proibição ao uso da IA. O ponto crítico é a falta de transparência e de supervisão humana, que pode gerar desconfiança no público. A ciência é uma construção coletiva, baseada em credibilidade, e o uso irresponsável da tecnologia pode fragilizar esse elo”, explica Diego Nogare.

O alerta não é isolado. Um artigo publicado neste ano por Victoria L. Sinclair, pesquisadora da Universidade de Salford, no Reino Unido, reforça a mesma preocupação. Intitulado “The Influence of AI-Generated News on Public Trust in Journalism: Evidence from the UK”, o estudo mostra que, apesar da eficiência trazida pela IA, a confiança do público só se mantém quando há clareza sobre o uso da tecnologia. A ausência dessa transparência pode gerar ceticismo e afastar leitores.

Em meio a esse cenário, organizações jornalísticas e editoras científicas têm adotado diretrizes claras para o uso da IA. O Grupo Globo, por exemplo, proíbe o uso de inteligência artificial para a produção de textos opinativos e exige a identificação explícita sempre que houver conteúdo automatizado.

Já editoras científicas como Elsevier e IEEE destacam que o uso da IA não exime o autor da responsabilidade pelo conteúdo publicado, alertando que ferramentas generativas podem ser “autoritárias, incorretas, incompletas ou tendenciosas”.

Segundo Nogare, é essencial que profissionais da ciência, da educação e da comunicação estejam atentos a quatro pilares:

  1. Transparência: tornar público o uso de IA, especificando quais ferramentas foram utilizadas e com que finalidade;
  2. Supervisão humana: garantir que todo conteúdo seja revisado por especialistas antes de ser divulgado;
  3. Combate a vieses: identificar distorções nos algoritmos e nos dados utilizados;
  4. Educação crítica: promover o letramento digital e científico para que o público consiga avaliar informações com autonomia.

“O uso ético e responsável da IA pode ampliar o acesso à ciência, mas nunca deve substituir a integridade humana na interpretação e no compartilhamento do conhecimento”, reforça Nogare.

Outro exemplo citado no ensaio é a geração de imagens hiper-realistas por IA: muitas vezes convincentes, mas que não correspondem a fatos reais. O risco, nesse caso, é reforçar percepções equivocadas e dificultar a análise crítica por parte do público — especialmente em temas sensíveis, como descobertas científicas com impacto econômico, sanitário ou ambiental.

O debate sobre a integração da IA à comunicação científica está apenas começando, mas o consenso entre especialistas é claro: para preservar a confiança da sociedade, é preciso garantir que a tecnologia atue como aliada da verdade — e não como um atalho para a desinformação.

inteligencia artificial

Sobre Diego Nogare:

Profissional com mais de 20 anos de experiência na área de Dados, com foco em Inteligência Artificial e Machine Learning desde 2013. É mestre e doutorando em Inteligência Artificial pela Universidade Presbiteriana Mackenzie. Ao longo da carreira, passou por grandes empresas como Microsoft, Deloitte, Bayer e Itaú. Neste último, liderou a estratégia de migração da plataforma de IA para a nuvem, entregando uma solução de desenvolvimento de IA fim a fim para todo o banco.

 

Leia + sobre  tecnologia e ciência 

+ NOTÍCIAS NO GRUPO NM DO WHATSAPP