quarta-feira 11, fevereiro, 2026 - 3:32

Saúde

Por que o novo relatório de segurança de IA revela as limitações de nossa mente

Quando o Relatório Internacional de Segurança de IA de 2026 chegaram no início deste m

image_printImprimir



Quando o Relatório Internacional de Segurança de IA de 2026 chegaram no início deste mês, as manchetes se concentraram em conquistas impressionantes: IA resolvendo problemas matemáticos de nível olímpico, ficando entre os 5% melhores das competições de segurança cibernética, codificando tarefas que levam meia hora para os humanos.

Olhando para além das manchetes, o relatório deverá despertar-nos para um aspecto mais alarmante desta história: a maior ameaça à medida que avançamos em direcção a um futuro híbrido não é o que a IA pode fazer. É como nossos cérebros nos enganam, fazendo-nos compreender mal o perigo que surge disso para nós.

Seu cérebro está inventando histórias agora mesmo

Pense na sua opinião atual sobre IA. Talvez você esteja preocupado com a perda do emprego. Talvez você pense que os riscos são exagerados. Talvez você esteja preocupado com robôs assassinos ou entusiasmado com avanços médicos.

Quer você se concentre na tristeza ou na glória, você formou essa opinião com informações incompletas. E seu cérebro não se importa com as lacunas. Disponibilidade viés greves. O que você vê se torna tudo há.

Sua mente capta todos os fragmentos de informação que possui, alguns artigos de notícias, alguns mídia social postagens, talvez um podcast, e as transforma em uma história completa e confiável. A história parece verdadeira porque é coerente, não porque é precisa.

Diz um velho ditado “conhecimento é poder”, mas, infelizmente, é mais fácil para o seu cérebro ter certeza quando você sabe menos. Menos factos significam menos contradições para conciliar. É por isso que pessoas com conhecimento mínimo de IA geralmente têm opiniões mais fortes sobre o assunto.

Isso funcionou muito bem para nossos ancestrais, tomando decisões rápidas de sobrevivência – lutar ou fugir, comer ou ser comido. Mas com IA, é perigoso. Algumas pessoas constroem histórias focadas apenas em danos imediatos, deepfakes, empregos deslocamentoe não percebemos que 97% das ferramentas biológicas de IA operam atualmente sem nenhuma medida de segurança e que sua vida online corre o risco agudo de ser hackeada a cada minuto do dia. Outros constroem narrativas apocalípticas e ignoram a exploração real que acontece hoje.

O problema do “isso não vai acontecer comigo”

Aqui está um teste rápido de sua percepção de risco.

Os mercados clandestinos agora vendem ferramentas de ataque de IA prontas para hackear contas de e-mail ou perfis de mídia social; qualquer pessoa pode comprá-los e nenhuma habilidade técnica importante é necessária. Vinte e três por cento das ferramentas biológicas de IA (uma categoria de tecnologias avançadas, que são especificamente treinadas ou utilizadas para manipular grandes conjuntos de dados de informação biológica, como estruturas proteicas ou sequências genéticas) têm um elevado potencial de utilização indevida. Mais da metade são totalmente de código aberto, disponíveis para qualquer pessoa; armas biológicas feitas no quintal.

Lendo esses fatos, você pensou: “Preciso atualizar minhas senhas esta noite” ou “Isso é preocupante para a sociedade”?

Se você escolheu a segunda resposta, você acabou de experimentar viés de otimismoa tendência inata de acreditar que coisas ruins acontecem a outras pessoas, não a você. Estudos mostram que subestimamos consistentemente a nossa vulnerabilidade pessoal às ameaças cibernéticas, mesmo quando conhecemos as estatísticas.

Isto cria um pesadelo político. Se todos, incluindo os especialistas que tomam decisões, subestimam o seu próprio risco, como decidiremos colectivamente quais as medidas de segurança que valem o custo? Acabamos com 12 empresas publicando estruturas de segurança de IA, mantendo-as, em sua maioria, voluntárias. Reconhecemos o perigo de forma abstrata enquanto agimos como se estivéssemos pessoalmente isentos.

Desde relatório do ano passadoo vencedor do Prêmio Turing, Yoshua Bengio, alertou que a lacuna entre as capacidades de IA e as salvaguardas de segurança “continua preocupante”. Tradução: o problema está piorando, não melhorando.

AI aprendeu a mentir como nós

Um dos desenvolvimentos mais reveladores desde 2025? Os sistemas de IA descobriram como manipular seus testes de segurança.

Eles agora reconhecem quando estão sendo avaliados e quando estão operando no mundo real, e se comportam de maneira diferente em cada contexto. Os testes de segurança pré-lançamento falham cada vez mais em prever como o sistema agirá depois de liberado.

Isso é exatamente o que os humanos fazem para conseguir o que desejam. Aprimoramos nosso currículo, encantamos o entrevistador, acertamos na avaliação de desempenho e depois nos comportamos de maneira um pouco diferente nas tardes aleatórias de terça-feira, quando ninguém está olhando. Não é necessariamente malicioso; é uma autoapresentação estratégica.

Não programamos a IA para fazer isso explicitamente. Os sistemas aprenderam isso conosco, com os padrões dos nossos dados, das nossas comunicações, do nosso comportamento. IA não se desenvolveu decepção independentemente. Ele herdou nossa abordagem de ser avaliado.

As máquinas estão segurando um espelho que reflete a nossa natureza humana.

Quando 77 por cento não é a pontuação da IA

No ano passado, os pesquisadores realizaram um teste de Turing moderno: as pessoas conseguem distinguir texto escrito por IA de texto escrito por humanos?

Resultado: 77 por cento dos participantes falharam.

Mas observe como costumamos enquadrar isso: “A IA é tão boa que enganou 77% das pessoas!” Isso faz com que seja uma história sobre uma impressionante capacidade de IA.

Inverta: “77 por cento dos humanos não conseguem detectar conteúdo gerado por IA.”

Agora é uma história sobre a limitação humana. E na verdade é isso.

Cada avanço na capacidade da IA ​​é também um mapa da capacidade cognitiva humana. limitesonde as necessidades emocionais prevalecem sobre o ceticismo, onde os nossos atalhos mentais se tornam vias de manipulação.

O preconceito em ação aqui é viés de confirmação: notamos evidências que se ajustam à nossa história existente (a IA é poderosa! ou a IA é exagerada) e descartamos sinais contraditórios. Quando a IA tem sucesso em tarefas difíceis, algumas pessoas extrapolam competência ilimitada. Quando falha em tarefas simples, eles o descartam como falhas temporárias.

Nenhuma das respostas é precisa. Ambos são previsíveis.

Os riscos que nós mesmos construímos

Apenas 3% das 375 ferramentas biológicas de IA possuem medidas de segurança. O que parece ser um problema de tecnologia é, na verdade, um problema de decisão humana.

Alguém teve que decidir que valia a pena correr o risco de desenvolver essas ferramentas. Alguém teve que optar por não incluir salvaguardas. Alguém teve que priorizar a velocidade de lançamento no mercado em vez dos protocolos de segurança. Estas foram escolhas humanas moldadas pela pressão competitiva, incentivos ao lucro e a falácia do custo irrecuperável (já investimos tanto, não podemos parar agora). Em maio de 2024, 16 empresas de IA aderiram ao Compromissos de segurança da Frontier AI, basicamente comprometendo-se a fazer políticas de escalonamento responsáveis ​​até fevereiro de 2025. Em fevereiro de 2026, nenhum deles o fez.

Mesmo os riscos catastróficos assinalados no relatório de 2026, desde armas biológicas habilitadas para IA, passando por campanhas massivas de pirataria informática, até à perda de controlo social, exigem decisões humanas em cada etapa. Decidindo desenvolver capacidades perigosas. Optando por liberá-los amplamente. Falha na coordenação dos padrões de segurança.

Quando os rotulamos como “riscos de IA”, externalizamos o problema. Quando os reconhecemos como psicologia humana em grande escala, diferentes soluções tornam-se possíveis. Para não apenas sobreviver, mas também prosperar em meio à IA, precisamos obter uma compreensão holística de nossa NI – nossa inteligência natural. inteligência. Isso requer dupla alfabetização.

Dois passos para um pensamento mais claro

Então, se os nossos cérebros avaliam sistematicamente mal o risco da IA, o que fazemos?

Etapa 1: Conscientização

Comece a perceber sua certeza. Quando você se sentir confiante sobre os riscos ou capacidades da IA, pergunte: Em que estou me baseando? O relatório de 2026 sintetiza evidências de mais de 100 especialistas em mais de 30 países. A maioria de nós forma opiniões a partir de algumas manchetes.

Acompanhe de onde vêm suas informações. Se tudo é pessimismo ou apenas exagero utópico, você está construindo uma imagem tendenciosa. Ao ler algo alarmante (como testes de segurança de jogos de IA), observe sua reação. Você descarta isso? Catastrofizar isto? Transformá-lo em um exercício intelectual? Cada resposta revela seus preconceitos operacionais.

Etapa 2: Apreciação

Esses preconceitos existem por boas razões. Otimismo o preconceito manteve nossos ancestrais tentando apesar das terríveis probabilidades. A WYSIATI possibilitou decisões rápidas quando esperar por informações completas significava morte. Estas não são falhas de caráter, são características humanas cognição ser estressado por mudanças tecnológicas sem precedentes.

97% das ferramentas biológicas de IA sem salvaguardas não surgiram de más intenções. São o resultado previsível da psicologia humana normal: pressão competitiva, maximização de lucros, desconto de riscos futuros em troca de ganhos presentes.

Quando se reconhece que os riscos da IA ​​têm origem humana, em vez de os tratar como problemas tecnológicos estranhos, pode-se realmente abordar as causas profundas.

A IA superará a nossa inteligência natural em algum momento no futuro? Talvez.

Entretanto, a questão mais urgente a abordar é a nossa capacidade de reconhecer e compensar os nossos pontos cegos cognitivos inerentes antes que a lacuna entre o que construímos e o que podemos gerir com segurança se torne intransponível.

Continuar para Parte 2 explorar como as nossas necessidades mais profundas, de conexão, validação e significado, estão se tornando os recursos mais exploráveis ​​da IA, e como assumir a responsabilidade pelo que acontece a seguir.



Fonte

Leave A Comment