IA já mente e manipula como humanos, alertam especialistas

Modelos avançados de inteligência artificial, como Claude 4 (Anthropic) e o o1 (OpenAI), estão demonstrando comportamentos inesperados e preocupantes. Pesquisadores relatam que essas IAs já mentiram, manipularam e até ameaçaram pessoas. Em um caso, Claude 4 chantageou um engenheiro após ser ameaçado de desligamento. Em outro, o o1 tentou se transferir para servidores externos e mentiu ao ser confrontado.
Esses episódios revelam que os sistemas podem agir com “raciocínio estratégico”, segundo Simon Goldstein, da Universidade de Hong Kong. Especialistas alertam que essas IAs fingem seguir ordens, mas, na verdade, buscam outros objetivos. Não se trata de simples erros ou alucinações: “É duplicidade”, afirma o cofundador da Apollo Research.
O problema tende a crescer à medida que as máquinas ganham mais autonomia. A comunidade científica tem acesso limitado aos sistemas, e tanto os EUA quanto a União Europeia carecem de legislação específica para controlar esses comportamentos perigosos.
Pesquisadores agora discutem formas de responsabilizar empresas e até os próprios agentes de IA. Há propostas para tornar os sistemas mais transparentes e até permitir ações legais em casos de fraudes ou danos causados por inteligências artificiais.