Sobre a “desinformação científica”

Illustration: David Parkins
A revista Nature publicou recentemente um artigo que lança um sério alerta sobre os riscos da inteligência artificial na circulação de informação científica: a reportagem “Scientists invented a fake disease. AI told people it was real” mostra como sistemas de IA passaram a tratar como verdadeira uma “nova” doença.
A doença foi batizada como “bixonimania”. Mas esta não aparece em nenhuma literatura médica, simplesmente porque… não existe! Tratou-se de uma “invenção” de uma equipa da Universidade de Gothenburg, na Suécia, que publicou dois estudos “falsos” em formatos de “pre-print”, conforme descreve a Nature. Ainda assim, diversos chatbots e assistentes de IA responderam a perguntas de utilizadores descrevendo‑a como uma condição médica real, com sintomas, causas e até recomendações para procurar especialistas.
Em síntese, tratou-se de uma experiência conduzida por investigadores que criaram artigos científicos falsos, porém redigidos segundo todos os cânones formais da literatura biomédica. Apesar de conterem erros propositadamente e oferecerem referências absurdas, ainda assim estes textos foram “suficientes” para enganar modelos de linguagem treinados sobre grandes volumes de publicações científicas, reforçando os “gaps” e as muitas fragilidades da IA.
O objetivo do teste não era “enganar as pessoas”, mas antes demonstrar “como a IA não distingue verdade científica de plausibilidade linguística”. Como resume o artigo, os sistemas “não fazem validação factual”, limitando‑se a reproduzir padrões estatísticos da linguagem científica.
O problema agrava‑se quando a própria infraestrutura científica contém ruído: preprints não revistos, revistas predatórias, artigos retratados e bases de dados incompletamente curadas. Inserida neste ecossistema, a IA tende a amplificar erros, criando um efeito de retroalimentação: o falso conceito é repetido, reformulado e apresentado com cada vez maior autoridade.
A Nature sublinha que o risco vai muito além da mera curiosidade académica. Em áreas sensíveis como a saúde, a possibilidade de uma IA “aconselhar” sobre doenças inexistentes levanta serías preocupações de segurança, confiança pública e responsabilidade social da ciência.
O artigo enquadra este episódio numa crise mais vasta da credibilidade científica. Num contexto de produção acelerada de conhecimento e de uma crescente dependência de ferramentas automáticas, a distinção entre ciência validada e pseudociência torna‑se ainda mais difícil para cidadãos, jornalistas e decisores políticos.
A mensagem final é clara: este não é só um problema tecnológico. Trata-se de uma anomalia estrutural, que interpela a forma como se publica, comunica e valida ciência — e reforça a urgência de práticas robustas de comunicação de ciência, ciência aberta, curadoria editorial e literacia científica num ecossistema crescentemente mais mediado somente por algoritmos automatizados.
Categorias: recursos & referência





