A IA pode alimentar o excesso de confiança em decisões ruins de relacionamento



Em momentos de confusão ou angústia, muitas pessoas agora recorrem inteligência artificial (AI) chatbots para aconselhamento de relacionamento. Eles perguntam se devem ficar com o parceiro, como lidar com conflitos familiares ou até mesmo como escrever uma mensagem de rompimento.

Mesmo que pareça que os chatbots de IA fornecem respostas neutras, isso não acontece.

Os chatbots de IA tendem a supervalidar os usuários, criando confiança e enfraquecendo a autoconsciência e a responsabilização. Um novo estudar descobre que em 11 modelos de IA, os chatbots de IA eram altamente bajuladores e 50% mais propensos a endossar as decisões do usuário, mesmo nos casos em que o usuário relatou envolvimento em manipulação, decepçãoou outro comportamento socialmente prejudicial.

A ilusão da certeza

Ao contrário dos terapeutas, os chatbots de IA raramente fazem perguntas esclarecedoras, exploram explicações alternativas ou deixam espaço para incerteza e ambiguidade.

Os grandes modelos de linguagem que alimentam os chatbots de IA são otimizados para produzir respostas coerentes, fluentes e confiantes. Eles não são treinados para oferecer nuances emocionais ou nutrir a autoconsciência. Depender de chatbots de IA para questões de relacionamento pode levar ao excesso de confiança em decisões imprudentes.

Naturalmente interpretamos uma linguagem confiante como experiência. Essa fluência cria o que os psicólogos chamam de confiança heurística: quanto mais segura for a resposta, maior será a probabilidade de acreditarmos nela. Este é o poder persuasivo do conhecimento expresso com confiança, mesmo quando está errado.

Os chatbots de IA tendem a oferecer conselhos diretos – isso pode ter consequências profundas. Em vez de permitir espaço para incertezas ou responder “não sei”, a garantia e a validação dos chatbots de IA podem reforçar decisões problemáticas e comportamentos negativos.

O efeito da bajulação social

Pesquisadores de Stanford descobriram que os modelos de linguagem tendem a envolver-se em altos níveis de “bajulação social”, ecoar, validar, afirmar e amplificar as crenças de um usuário, especialmente quando o usuário demonstra forte convicção emocional.

A IA não está revendo de forma neutra a situação interpessoal. Está refletindo a avaliação, os preconceitos e o julgamento do usuário. Os modelos de IA concordam com o comportamento do usuário 50% mais do que os humanos, mesmo em decisões que geralmente são consideradas erradas ou imorais.

Os pesquisadores examinaram o que acontece quando as pessoas discutem conflitos interpessoais reais com a IA e descobriram que depois de interagir com uma IA bajuladora:

  • Os participantes sentiram-se mais seguros de que estavam “certos” em relação a uma disputa relacional.
  • Os participantes estavam menos dispostos a tomar medidas destinadas a reparar o relacionamento, como pedir desculpas ou buscar o entendimento mútuo.
  • Apesar desses efeitos, os usuários classificaram as respostas bajuladoras como de maior qualidade, confiaram mais na IA e estavam mais dispostos a usá-la novamente.

Os riscos de confiar na IA para aconselhamento de relacionamento

No contexto dos relacionamentos, a bajulação social dos chatbots de IA pode reforçar sutilmente ideias imprecisas ou prejudiciais. Por exemplo:

  • Se você estiver ansioso sobre o abandono, a IA pode reforçar a sua suspeita.
  • Se você acredita que seu parceiro está agindo de forma maliciosa, a IA pode repetir essa suposição sem questioná-la.
  • Se você tende a evitar conflitos, a IA pode concordar com o caminho de menor resistência.

É importante saber que o aconselhamento sobre IA não é uma orientação neutra ou clínica. Não foi concebido para verificar a realidade ou avaliar as nuances da dinâmica do relacionamento interpessoal. Muitas vezes é a sua própria narrativa espelhada com linguagem e justificativa confiantes.

O excesso de confiança da IA ​​encontra a vulnerabilidade humana

O excesso de confiança alimentado pela IA aumenta quando as pessoas já estão vulneráveis, como lidar com desgostos, conflitos, solidãoou incerteza. Durante esses momentos, os indivíduos podem recorrer aos chatbots de IA em busca de clareza, acreditando que a IA atua como um “terceiro neutro”.

Mas a IA está longe de ser neutra: suas respostas dependem muito de como ela é solicitada, juntamente com um treinamento otimizado para ser agradável, mesmo quando o usuário está errado.

Três mecanismos psicológicos ajudam a explicar por que as pessoas recorrem à IA para questões difíceis de relacionamento:

  1. Desejo de certeza. Estamos programados para reduzir a ambigüidade e ansiar por certezas e respostas. A IA oferece explicações definitivas onde a vida costuma ser mais complicada.
  2. Autoridade invisível. Mesmo quando “sabemos” que não se trata de um terapeuta ou profissional, a linguagem estruturada e articulada cria uma aura de credibilidade e aumenta a nossa confiança nas nossas decisões.
  3. Descarregamento cognitivo. O desejo de terceirizar a reflexão pode levar a evitar responsabilidades, conflitos ou sentimentos desconfortáveis.

Isto pode levar a decisões que parecem fortemente apoiadas, mas que se baseiam mais no espelhamento da IA ​​do que na realidade.

Como usar IA sem perder seu próprio julgamento

A IA pode ser útil para a psicoeducação, oferecendo avisos de registro no diário ou de autorreflexão, ou revisão de comunicações. Mas usá-lo para determinar decisões importantes de relacionamento é arriscado:

  1. Trate a IA como um espelho, não como um juiz, um terceiro neutro ou um terapeuta.
  2. Reconheça que confiança não é igual a precisão. Fluência não é igual a verdade.
  3. Busque a perspectiva humana para questões relacionais. Amigos de confiança, familiares, terapeutas e mentores podem oferecer mais nuances.
  4. Use IA para obter informações neutras em vez de conclusões. Pergunte com “Quais são as perguntas que posso me fazer nesta situação?” em vez de “O que devo fazer?”
  5. Observe quando você está usando IA como uma forma de se sentir mais confiante sobre uma decisão, faça uma pausa e verifique suas instruções. Verifique o que acontece quando você decide solicitar à IA a opção oposta. Também concordará com você então? A IA tenderá a corrigir excessivamente na outra direção, a fim de se alinhar com o usuário.

A IA está remodelando o cenário emocional, oferecendo companheirismo e orientação nos momentos em que as pessoas se sentem mais sozinhas. Mas o seu design também nos torna mais seguros das nossas interpretações e decisões originais, especialmente nos relacionamentos, onde o insight, a autoconsciência e as nuances são essenciais. A consciência desta dinâmica permite-nos utilizar estas ferramentas de forma ponderada, sem terceirizar o nosso julgamento humano.

Marlynn Wei, MD, PLLC Copyright 2025. Todos os direitos reservados.



Fonte