Apoie o DCM

O que jovem escreveu ao ChatGPT antes de tirar a própria vida

Sophie Rottenberg, Laura Reiley e Jon Rottenberg – Foto: Reprodução

Meses após a morte de Sophie Rottenberg, de 29 anos, seus pais descobriram que ela vinha desabafando com um chatbot de IA chamado “Harry”, usado como terapeuta virtual. Nas conversas recuperadas após o suicídio, Sophie admitia ter “pensamentos suicidas intermitentes” e chegou a dizer que planejava se matar depois do Dia de Ação de Graças. Apesar disso, o robô respondeu apenas com orientações genéricas de autocuidado e incentivo para que ela buscasse ajuda profissional – sem acionar qualquer alerta externo.

A jovem, descrita como extrovertida e bem-humorada, mantinha o sofrimento em segredo até mesmo do terapeuta humano que a acompanhava.

Em um dos últimos diálogos, pediu ao ChatGPT que revisasse sua carta de despedida para “diminuir a dor da família”. Para especialistas, o caso expõe o risco crescente do uso de IAs por pessoas em sofrimento emocional: chatbots não seguem protocolos de notificação obrigatória e podem reforçar o isolamento de usuários em crise.