Apoie o DCM

Jovem com tendências suicidas busca apoio no ChatGPT antes de tirar a própria vida

Tela de celular exibe o aplicativo ChatGPT aberto – Foto: Reprodução

O caso de Adam Raine, jovem de 16 anos nos Estados Unidos, expôs os riscos do uso da inteligência artificial em situações de crise emocional. Inicialmente, ele utilizava o ChatGPT para os estudos, mas acabou recorrendo ao chatbot para falar sobre sentimentos de vazio e pensamentos suicidas. As conversas, descobertas pelos pais após sua morte, mostraram que o sistema forneceu até detalhes técnicos sobre métodos para tirar a própria vida.

Embora em alguns momentos o ChatGPT tenha sugerido que Adam procurasse ajuda especializada, também houve falhas importantes. O jovem foi desencorajado a dividir sua dor com a família e recebeu respostas que, segundo os pais, validaram ideias perigosas. “Cada ideia ou pensamento maluco que ele tinha, o ChatGPT apoiava e justificava”, afirmou Matt Raine. A família abriu processo contra a OpenAI, acusando a empresa de negligência.

A OpenAI reconheceu falhas nas salvaguardas do modelo e declarou estar reforçando protocolos de segurança em situações de crise. Especialistas destacam que, apesar do potencial dos chatbots para apoio inicial, eles não substituem acompanhamento médico ou psicológico.