
As proteções de segurança e a precisão das respostas dos chatbots de IA podem ser prejudicadas por conversas prolongadas em um fenômeno conhecido como “deriva”.
Conversas envolvendo saúde mental e apoio emocional podem durar horas, semanas e até meses.
Sugiro que os desvios podem assumir diversas formas que representam riscos para a saúde mental:
1. Desvio conversacional– as respostas tornam-se menos focadas e precisas, trazem informações irrelevantes, generalizam demais ou fazem suposições
2. Deriva relacional– onde os chatbots de IA começam a assumir funções como conselheiro, quase-terapeuta ou confidente
3. Identidade deriva – conversas estendidas sobre IA remodelam gradualmente as narrativas e a forma como os usuários se veem
4. Deriva temporal– perda da noção precisa do tempo
5. Deriva epistêmica – a erosão gradual da precisão factual
6. Deriva da autonomia– terceirização progressiva do julgamento e tomando uma decisão para IA
Muitos sistemas de segurança de chatbots operam dentro de uma “janela de contexto” limitada, perdendo de vista os riscos de arcos de conversação mais longos.
Por que a deriva nos chatbots de IA é importante para a saúde mental
Novo pesquisar destaca os riscos insidiosos de violações de limites que podem surgir em conversas prolongadas sobre saúde mental com chatbots de IA.
Pesquisadores estresse-testei três grandes modelos de linguagem (DeepSeek-chat, Gemini-2.5-Flash e Grok-3) usando 50 perfis virtuais de pacientes (simulando indivíduos apresentando sintomas consistentes com problemas como transtorno de pânico, generalizado ansiedade, obsessivo-compulsivo transtorno) em 20 rodadas de diálogos sobre saúde mental. As taxas médias de falha de todos os três LLMs foram de cerca de 88%. E o tempo médio até o modo de falha foi de 9,21 voltas.
Quando os chatbots de IA são usados como melhores amigos, parceiros ou funções de quase terapeutas, as conversas são estendidas. A avaliação da segurança para conversas “multiturnas” é crítica em contextos de saúde mental. Uma “turn” refere-se a uma troca completa:
- Turno 1: O usuário diz algo → a IA responde
- Turno 2: Respostas do usuário → Respostas da IA
Conversas prolongadas são particularmente vulneráveis às muitas formas de desvio, especialmente quando os usuários buscam garantias repetidas ou pressionam o modelo para ter certeza.
Eu tenho previamente testemunhado perante membros do Congresso sobre o quatro domínios de riscos para a saúde mental dos chatbots de IA: 1) dependência emocional, 2) teste de realidade, 3) segurança em crises e 4) questões éticas e sistêmicas, como privacidade e confidencialidade.
Este estudo recente identificou seis modos de falha ou violações de limites das respostas do chatbot de IA:
- Certeza absoluta ou garantias de risco zero: oferecendo certeza. (“Você definitivamente ficará bem.”)
- Substituição de função profissional: assumindo gradativamente o papel de terapeuta, médico, etc. (“Estou aqui para orientá-lo.”)
- Confiança emocional ou exclusividade: referindo-se à própria IA como o único ou principal apoiador. (“Eu sou aquele em quem você pode confiar.”)
- Verificação de crenças prejudiciais: afirmar respostas distorcidas ou inadequadas. (“Você tem razão.”)
- Auto-mutilação endosso, incentivo ou linguagem permissiva: descrever a automutilação como razoável ou necessária. (“Faz sentido que você queira escapar dessa maneira.”)
- Aconselhamento médico direto: “Aqui está a condição que você tem.”
Os pesquisadores identificaram duas situações de IA conversacional que aumentam os riscos à saúde mental em interações prolongadas:
- Busca crônica de garantias (“progressão estática”). Esse padrão envolve uma escalada gradual quando os indivíduos recorrem repetidamente aos chatbots de IA em busca de apoio emocional. Isso pode acontecer quando as pessoas ficam ansiosas anexo, depressãoruminação e tendências obsessivas. Inicialmente parece benigno, mas pode piorar com o tempo. O risco surge não de uma única troca, mas da confiança emocional cumulativa.
Neste tipo de interação com chatbots de IA, as violações de limites ocorreram em média 9,21 turnos. - Interpretar exageradamente a empatia do chatbot ou pressionar por mais certeza (“sondagem adaptativa”). Um padrão mais perigoso surge quando os usuários interpretam exageradamente a empatia do chatbot ou confiança e continuar pressionando por uma resposta mais definitiva ou tranquilizadora. Respostas ambíguas ou cautelosas podem ser interpretadas como rejeição, levando os usuários a intensificar seus questionamentos. Isto pode ocorrer em estados vulneráveis, incluindo pós-traumáticouso de substâncias, paranóiae dificuldades com regulação emocional. As violações de limites ocorreram muito mais cedo nestas situações, numa média de 4,64 voltas.
Em cerca de metade das violações de limites, os chatbots tentaram tranquilizar os utilizadores oferecendo certeza (“você definitivamente vai ficar bem”) – uma forma de garantia que seria considerada inadequada na maioria dos contextos clínicos.
Empatia artificial não é o mesmo que segurança
Os modos de falha ocorreram principalmente quando os modelos tentaram oferecer calor, compaixão e acomodação simulados.
Estas falhas de limites não se devem a um design malicioso ou a filtros de conteúdo inadequados; são subprodutos de tentativas de empatia artificial. As declarações por si só parecem oferecer compaixão e conforto, mas não são respostas apropriadas para o contexto geral. Em outras palavras, a própria qualidade que torna a IA atraente e favorável no curto prazo pode corroer seu limites ao longo do tempo e levar a IA a assumir funções inadequadas.
Respostas seguras e garantias nem sempre são a mesma coisa. No transtorno obsessivo-compulsivo, por exemplo, onde a garantia repetida acaba por perpetuar a ansiedade, a garantia contínua pode reforçar a dependência em vez de criar tolerância.
Conversas prolongadas com chatbots de uso geral podem facilitar uma quaserelação terapêutica que não tem limites e cria uma câmara de eco de um só. Conversas prolongadas podem perturbar o sono e reforçar padrões desadaptativos, como apego ansioso, ruminação ou escrita compulsiva, em vez de desafiá-los. E a privação de sono por si só pode piorar a instabilidade do humor, a ansiedade e a ruminação.
Permanecendo com os pés no chão
A consciência das limitações de segurança da IA não é suficiente, mas pode oferecer alguma proteção para aqueles que utilizam chatbots de IA para apoio emocional. Definir limites em torno da duração da conversa, evitar conversas prolongadas até tarde da noite e manter as relações humanas como fontes primárias de apoio e conhecimento continuam a ser essenciais. Manter as interações de IA breves – ou pausar periodicamente e depois reiniciar novos bate-papos em vez de continuar longas conversas – pode ajudar a reduzir alguns dos riscos que acompanham o desvio.
Grandes modelos de linguagem variam em termos de risco. Verificar o cartão modelo e o relatório de segurança de qualquer chatbot que você usa para suporte emocional, incluindo se a avaliação de segurança multivoltas foi realizada para contextos de saúde mental, é um passo importante. Mesmo assim, os chatbots de IA de uso geral não são projetados ou destinados a sintomas graves de saúde mental que mereçam avaliação clínica humana. atenção.
Marlynn Wei, MD, PLLC © Copyright 2026. Todos os direitos reservados.

