Sobre a “desinformação científica”

. 8 de Abril de 2026
An illustration of a doctor examining a computer with sad-looking red human eyes on its screen and human limbs.

Illustration: David Parkins

A revista Nature publicou recentemente um artigo que lança um sério alerta sobre os riscos da inteligência artificial na circulação de informação científica: a reportagem Scientists invented a fake disease. AI told people it was real mostra como sistemas de IA passaram a tratar como verdadeira uma “nova” doença.

A doença foi batizada como “bixonimania”. Mas esta não aparece em nenhuma literatura médica, simplesmente porque… não existe! Tratou-se de uma “invenção” de uma equipa da Universidade de Gothenburg, na Suécia, que publicou dois estudos “falsos” em formatos de “pre-print”, conforme descreve a Nature. Ainda assim, diversos chatbots e assistentes de IA responderam a perguntas de utilizadores descrevendo‑a como uma condição médica real, com sintomas, causas e até recomendações para procurar especialistas.

Em síntese, tratou-se de uma experiência conduzida por investigadores que criaram artigos científicos falsos, porém redigidos segundo todos os cânones formais da literatura biomédica. Apesar de conterem erros propositadamente e oferecerem referências absurdas, ainda assim estes textos foram “suficientes” para enganar modelos de linguagem treinados sobre grandes volumes de publicações científicas, reforçando os “gaps” e as muitas fragilidades da IA.

O objetivo do teste não era “enganar as pessoas”, mas antes demonstrar “como a IA não distingue verdade científica de plausibilidade linguística”. Como resume o artigo, os sistemas “não fazem validação factual”, limitando‑se a reproduzir padrões estatísticos da linguagem científica.

O problema agrava‑se quando a própria infraestrutura científica contém ruído: preprints não revistos, revistas predatórias, artigos retratados e bases de dados incompletamente curadas. Inserida neste ecossistema, a IA tende a amplificar erros, criando um efeito de retroalimentação: o falso conceito é repetido, reformulado e apresentado com cada vez maior autoridade.

A Nature sublinha que o risco vai muito além da mera curiosidade académica. Em áreas sensíveis como a saúde, a possibilidade de uma IA “aconselhar” sobre doenças inexistentes levanta  serías preocupações de segurança, confiança pública e responsabilidade social da ciência.

O artigo enquadra este episódio numa crise mais vasta da credibilidade científica. Num contexto de produção acelerada de conhecimento e de uma crescente dependência de ferramentas automáticas, a distinção entre ciência validada e pseudociência torna‑se ainda mais difícil para cidadãos, jornalistas e decisores políticos.

A mensagem final é clara: este não é só um problema tecnológico. Trata-se de uma anomalia estrutural, que interpela a forma como se publica, comunica e valida ciência — e reforça a urgência de práticas robustas de comunicação de ciência, ciência aberta, curadoria editorial e literacia científica num ecossistema crescentemente mais mediado somente por algoritmos automatizados.

Tags: , , , ,

Categorias: recursos & referência

Sobre o Autor ()

É membro da equipa do Gabinete de Gestão de Informação Científica, Repositórios e Ciência Aberta da Unidade de Serviços de Documentação e Bibliotecas da Universidade do Minho desde novembro de 2023. Aficionado por comunicação de ciência, ciências da informação e, obviamente, ciência aberta.

Comentários encerrados.