Por que conversar com um bot nem sempre é um problema de saúde mental

Discussões recentes sobre conversação inteligência artificial levantaram sérias questões sobre saúde mental. Para algumas pessoas que utilizam estes sistemas regularmente, a interação pode parecer significativa e sustentada, embora ainda seja claramente diferente do relacionamento com uma pessoa real. Os usuários sabem que não estão interagindo com um ser humano e, ainda assim, a troca pode parecer responsiva, atenta e envolvente de maneiras desconhecidas. O que permanece obscuro – e o que se tornou fonte de preocupação crescente – é como este tipo de envolvimento afecta a saúde mental, para melhor ou para pior, e para quem.
Abordo estas questões não como psicólogo, mas como especialista em ética cujo trabalho tem frequentemente centrado-se em momentos em que novas práticas ultrapassam os enquadramentos em que nos baseamos para as avaliar. Em éticaisto pode surgir quando um comportamento é rapidamente rotulado como irresponsável ou prejudicial porque não se enquadra confortavelmente nas categorias existentes. Às vezes, esses julgamentos estão certos. Às vezes, eles acabam sendo prematuros ou desatualizados. Essa experiência levou-me a perguntar se algo semelhante poderia estar a acontecer quando psicólogos e médicos encontram pacientes cujas vidas incluem agora um envolvimento conversacional sustentado com sistemas de IA.
Não há dúvida de que o envolvimento sustentado com sistemas de conversação pode representar riscos para a saúde mental, especialmente para certos indivíduos e grupos vulneráveis. Um caso amplamente divulgado envolvendo um adolescente que desenvolveu um relacionamento emocionalmente exclusivo com um chatbot de IA, retirou-se da família e dos colegas e mais tarde suicidou-se, moldou compreensivelmente a preocupação pública. Casos como esse são de partir o coração. Eles ilustram como a IA conversacional pode se tornar psicologicamente perigosa, especialmente na ausência de limitessalvaguardas ou orientação.
Embora tais casos mostrem como as coisas podem dar errado, eles não determinam como todo o envolvimento contínuo com a IA conversacional deve ser entendido. O desafio para os profissionais de saúde mental é que estas interações podem estar presentes na vida dos pacientes sem serem óbvias ou facilmente descritas. Alguns pacientes podem nem mencioná-los. Outros podem mencioná-los sem saber caracterizar o seu significado. Se o envolvimento sustentado na conversação está a tornar-se uma característica da vida quotidiana de algumas pessoas, então compreender as suas implicações para a saúde mental torna-se uma preocupação prática para aqueles que as tratam e aconselham.
Essa sutileza é fácil de perder. Um recente anúncio de televisão nacional do ChatGPT, transmitido durante uma importante transmissão de futebol, mostra uma mulher treinando para correr apesar das dúvidas e das dificuldades físicas. Enquanto ela corre, mensagens encorajadoras de uma conversa anterior do ChatGPT aparecem na tela – avisos breves que oferecem garantia, estrutura e motivação. Nada na cena sugere terapia ou dependência emocional. No entanto, ilustra como a IA conversacional pode assumir silenciosamente papéis motivacionais ou de apoio emocional que podem nunca surgir numa conversa clínica, embora moldem a forma como as pessoas refletem, persistem e se regulam.
A literatura psicológica: um terreno incerto
Muito antes da IA, os investigadores estudavam relações parassociais – laços emocionais unilaterais com figuras mediáticas ou personagens fictícios. O trabalho clássico de Horton e Wohl (1956), juntamente com refinamentos posteriores de Tukachinsky (2011), observou repetidamente correlações entre tais laços e experiências de solidão, isolamento socialou vulnerabilidade. Esta literatura não estabelece caminhos causais simples, mas mostra que interações unilaterais emocionalmente significativas tendem a aparecer juntamente com estas condições, e não isoladamente.
Esta linha de trabalho continua relevante à medida que os psicólogos tentam compreender a IA conversacional. Sistemas que respondem diretamente, lembram-se de trocas passadas e sustentam atenção pode assumir um significado emocional para alguns usuários. A importância desta investigação não é que o significado emocional sinalize automaticamente a disfunção, mas que realce uma dimensão da experiência que precisa de ser interpretada cuidadosamente, em vez de diagnosticada reflexivamente.
Estudos mais recentes examinaram como as pessoas realmente usam chatbots sociais ao longo do tempo. Na pesquisa qualitativa e de métodos mistos, os investigadores analisam registros de conversas, conduzem entrevistas e pedem aos participantes que descrevam suas experiências ao longo de semanas ou meses. Esses estudos não apontam para um padrão único. Alguns participantes descrevem a interação como intelectualmente envolvente ou útil para refletir sobre ideias. Outros descrevem-no como emocionalmente significativo de formas que não previram, por vezes confundindo limites que mais tarde consideram desconfortáveis (Ta et al., 2023; Skjuve et al., 2024). Contudo, o significado emocional por si só não deve ser tratado como um indicador de insalubridade mental. O envolvimento pode ser vivenciado como bem-vindo, neutro ou problemático, dependendo da pessoa, do contexto e das consequências ao longo do tempo.
Outras pesquisas concentram-se mais explicitamente nos riscos para a saúde mental. Estudos baseados em pesquisas que examinam o uso do chatbot juntamente com medidas de solidão, depressãoe a confiança emocional tendem a descobrir que os indivíduos que já estão em dificuldades são mais propensos a recorrer a sistemas de conversação para obter apoio emocional e a confiar neles de formas que se assemelham aos padrões de dependência existentes (Ouyang et al., 2024). Essas descobertas reforçam a realidade do risco. Contudo, não implicam que o envolvimento conversacional sustentado em si seja patológico. Vulnerabilidade e contexto são importantes.
Uma linha diferente de pesquisa aborda a IA conversacional principalmente em termos de cognição em vez de emocional anexo. Estudos sobre transferência cognitiva examinam como as pessoas dependem de sistemas externos – notas, calendários e ferramentas de pesquisa – para apoiar memória e raciocínio, muitas vezes com efeitos adaptativos (Risko e Gilbert, 2016; Storm e Stone, 2023). Estudos experimentais e baseados em sala de aula mais recentes pedem aos participantes que utilizem IA generativa para esclarecer argumentos, explorar alternativas ou refletir sobre o seu raciocínio, com os investigadores a medir mudanças na compreensão ou na consciência metacognitiva (Chiang e Lee, 2024; Mozafari et al., 2024). Estes estudos são cautelosos nas suas afirmações, mas sugerem que a interacção conversacional prolongada pode apoiar a actividade intelectual de formas que não se enquadram perfeitamente em ideias familiares de utilização de ferramentas ou de relações interpessoais.
Considerações sobre privacidade
Qualquer discussão sobre IA conversacional também deve reconhecer preocupações sobre privacidade e uso de dados. Foram levantadas questões razoáveis nas comunidades políticas e de investigação sobre o que significa partilhar reflexões pessoais com sistemas de IA e como essas informações são armazenadas ou protegidas. Estas questões permanecem incertas e merecem atenção, mas não determinam por si só o significado psicológico do uso. Tanto para médicos como para utilizadores, as considerações de privacidade fazem parte do contexto mais amplo em que são tomadas decisões sobre envolvimento, limites e divulgação.
Idosos e IA conversacional: riscos e possibilidades
Pesquisas envolvendo adultos mais velhos oferecem alguns dos insights mais claros sobre como a IA conversacional pode proporcionar benefícios significativos. Em estudos realizados em lares e ambientes comunitários, os investigadores observam como os participantes integram tecnologias de conversação na vida quotidiana através de entrevistas, diários e observação longitudinal. As descobertas sugerem consistentemente que os aspectos práticos e semelhantes a ferramentas da IA conversacional – ajuda com lembretes, recuperação de informações e suporte cognitivo – podem ser genuinamente benéficos para adultos mais velhos (Vandemeulebroucke et al., 2023; Pradhan et al., 2024).
A mesma investigação sugere que alguns adultos mais velhos experimentam interacções emocionalmente significativas com sistemas de conversação sem indicações claras de aumento da solidão ou retraimento social. Se tais experiências são psicologicamente benéficas, neutras ou potencialmente prejudiciais permanece uma questão em aberto. O que parece claro é que os adultos mais velhos ocupam uma posição complicada: podem ser vulneráveis em alguns aspectos e especialmente bem posicionados para beneficiarem noutros. Essa combinação merece atenção cuidadosa, em vez de suposições gerais.
Perguntas para pesquisas futuras
Além da necessidade de observação clínica cuidadosa, diversas questões podem ser especialmente importantes para pesquisas futuras. Sob que condições o envolvimento conversacional sustentado coexiste com, em vez de substituir, relacionamentos com pessoas reais? Quando é que a interação emocionalmente significativa permanece psicologicamente neutra e quando começa a registar um aumento da angústia ou do retraimento? Como é que a idade, a solidão anterior, o historial de saúde mental e o contexto social moldam estes resultados ao longo do tempo? E como os próprios usuários entendem, regulam e estabelecem limites em torno dessas interações à medida que se tornam mais familiares?
A investigação capaz de abordar questões como estas levará tempo e as normas desenvolver-se-ão gradualmente. Enquanto isso, os médicos continuarão a confiar no julgamento e na experiência.
Conclusão
Falar com um bot não é automaticamente um problema de saúde mental. É uma forma emergente de envolvimento cujo significado depende de quem a utiliza, como é utilizada e com que efeitos ao longo do tempo. Para alguns indivíduos – especialmente crianças e adolescentes – os riscos podem muito bem superar os benefícios. Pode ser apropriado limitar ou restringir a disponibilidade de IA conversacional para utilizadores mais jovens, tal como outras tecnologias de comunicação social são regulamentadas.
Para os adultos, incluindo muitos idosos, o quadro parece mais confuso. Algumas formas de envolvimento podem ser saudáveis, outras neutras e ainda outras prejudiciais. Os psicólogos estão bem posicionados para observar estas variações na prática clínica, para refletir sobre elas coletivamente e para desenvolver pesquisas que esclareçam quando a interação conversacional sustentada apoia o bem-estar mental e quando o prejudica.
A tarefa agora não é decidir antecipadamente o que deve significar falar com um bot, mas entender quando ele está saudável, quando não está e por quê. À medida que a IA conversacional se torna cada vez mais comum, o desafio psicológico não é pânico ou normalizar indiscriminadamente, mas compreender como significado, risco e bem-estar se cruzam no uso diário.