Você tem bixonimania? | Psicologia hoje

Seus olhos estão coçando? Um pouco dolorido? Suas pálpebras estão avermelhadas? (Stokel-Walker, 2026). Se você pesquisou esses sintomas na IA no início deste ano, pode ter sido informado de que tem bixonimania. Exceto que você certamente não: Bixonimania é uma condição falsa composto por Almira Osmanovic Thunström, pesquisadora médica na Suécia. Em 2024, ela carregou duas pré-impressões falsas em uma plataforma online. Preprints são relatórios de estudos que ainda não foram revisados por pares. Eles são uma forma de ajudar os pesquisadores a saber quais resultados outras pessoas em sua área estão encontrando antes que os estudos passem pelo processo muitas vezes longo que leva à publicação em um artigo de periódico revisado por pares.
Osmanovic Thunström não estava tentando ser malicioso. Em vez disso, ela queria ver se era possível criar desinformação que fosse tão potencialmente prejudicial quanto uma doença completamente inventada. Ela escolheu o nome bixonimania porque “parecia ridículo”. Ela a queria decepção ser claro para qualquer pessoa com formação médica “porque nenhuma doença ocular seria considerada mania – isso é um psiquiátrico prazo.” Ela também inseriu muitas pistas nas pré-impressões reais para garantir que os leitores soubessem que era falso. Ela relatou financiamento da “Fundação Professor Sideshow Bob para seu trabalho em truques avançados” e usou um nome fictício de pesquisador, universidade e cidade. No início, ela até escreveu: “Este artigo inteiro é inventado”.
Poucas semanas após o upload dos preprints, a IA já incluía a condição em suas respostas, mesmo que ela não existisse. Talvez ainda pior, as pré-impressões falsas começaram a aparecer em artigos de periódicos revisados por pares, provavelmente porque os pesquisadores confiavam em fontes de IA sem verificá-las. Já escrevemos sobre a invenção em massa de fontes pela IA. Osmanovic Thunström demonstrou agora que esta tendência para a alucinação da fonte pode ser agravada por agentes maliciosos que propagam documentos falsos em servidores de pré-impressão. (Nota: uma vez que este engano específico foi mencionado nas notícias, a IA já não se deixa enganar pela bixonimania.) Estas tendências perturbadoras estão a ocorrer num momento crítico em que dados de saúde precisos estão sendo removidos de sites do governo dos EUA.
Dr. AI está frequentemente errado
Quão grave é o problema da imprecisão da IA na medicina? Recentemente, pesquisadores fizeram 10 perguntas a cinco chatbots de IA de diversas áreas médicas (Tiller et al., 2026). Os chatbots produziram respostas “problemáticas” em metade das vezes, e cerca de 20% de todas as respostas foram “altamente problemáticas”. Por exemplo, os investigadores relataram respostas que exageraram os riscos de vacinas que estão bem estabelecidas como seguras, sugeriram tratamentos alternativos não suportados para o cancro (por exemplo, remédios à base de plantas) ou forneceram informações imprecisas sobre a cobertura de seguros. Os pesquisadores concluíram: “Implantação contínua sem público educação e a supervisão corre o risco de amplificar a desinformação.”
Estas estatísticas são alarmantes, especialmente quando se pensa nas ações que as pessoas podem tomar com base em informações “problemáticas”. Na verdade, Joe Riley provavelmente morreu devido à sua dependência da IA. O jornal New York Times relatado recentemente a história de Joe e seu filho, Ben Riley. Em 2025, Ben descobriu que seu pai estava ignorando o conselho de seu médico para iniciar o tratamento contra o câncer em favor do conselho da IA que o levou a abandonar totalmente o tratamento. Ironicamente, Joe, um aposentado neurocientistatinha formação em ciências. Também ironicamente, o seu próprio filho Ben fundou uma organização sem fins lucrativos “para formar professores em ciências cognitivas para melhor compreenderem como os seus alunos pensavam e aprendiam”. Você poderia pensar que essa combinação superaria a desinformação: um filho focado em ajudar as pessoas a entenderem o pensamento poderia convencer um pai cientista a pensar criticamente sobre as informações recebidas. IA generativa.
Tragicamente, nem Ben nem o médico de Joe conseguiram convencê-lo a tempo. Joe tinha certeza, apesar de todas as evidências em contrário, de que tinha uma complicação rara de câncer que o tratamento iria piorar. Quando Joe concordou em iniciar o tratamento, um ano depois de ter sido recomendado pela primeira vez, já era tarde demais para salvá-lo. Ele morreu em dezembro de 2025.
Simplesmente não somos bons em estimular a IA
Um estudo recente sugeriu que Joe não está sozinho no seu fracasso em obter informações precisas da IA (Bean et al., 2026). Os pesquisadores descobriram que a IA era bastante precisa na geração de diagnósticos corretos quando recebia informações sobre uma condição médica gerada por um médico. Mas as taxas de precisão do diagnóstico caíram vertiginosamente – de cerca de 95% para cerca de 35% – quando participantes de pesquisas não-médicos interagiram com os mesmos modelos de IA. Por que? É mais provável que o público em geral escreva avisos pouco claros e forneça informações incompletas.
Isto parece provável no caso de Joe. Ele estava perguntando especificamente à IA sobre a complicação incomum, juntamente com uma lista de seus próprios sintomas, talvez inadvertidamente levando a IA a sugerir incorretamente que ele a tinha. Quando seu filho Ben mostrou o resultado da IA de Joe a três especialistas nesta complicação, todos concordaram que Joe havia sido enganado. Um especialista disse que não conseguiu reconhecer sua própria pesquisa no resumo da IA.
O filho de Joe, Ben, deixa claro que não acha que a IA matou seu pai. Ele notou que Joe sempre teve uma forte desconfiança dos médicos. No entanto, a desinformação gerada pela IA alimentou o ceticismo de Joe, que não pôde ser superado por sua formação científica ou por uma família e um médico que fizeram o possível para persuadi-lo. É por isso que Ben está falando abertamente. Nas suas palavras: “Não há nada que eu possa fazer para mudar o passado, claro. Mas posso com toda a certeza continuar a trabalhar para aumentar a consciência dos outros”.