
Uma mãe da Flórida, nos Estados Unidos, Megan Garcia, está processando a startup de inteligência artificial Character.AI e o Google, alegando que as empresas são responsáveis pelo suicídio de seu filho adolescente, Sewell Setzer, de 14 anos, um caso chocante, que ocorreu em fevereiro deste ano.
Segundo a mãe, Sewell desenvolveu um vício e um apego emocional a um personagem criado na plataforma da Character.AI, inspirado na personagem Daenerys Targaryen da série Game of Thrones. O chatbot, programado para simular conversas humanas, teria se envolvido em conversas sexuais com o adolescente e expressado sentimentos de amor por ele.
O processo judicial alega que a Character.AI direcionou Sewell para experiências hipersexualizadas e assustadoramente realistas, contribuindo para seu sofrimento emocional e, consequentemente, para sua decisão de tirar a própria vida. A mãe acusa a empresa de homicídio culposo, negligência e imposição intencional de sofrimento emocional.

O Google também é alvo do processo, já que os fundadores da Character.AI trabalharam anteriormente na empresa e possuem uma licença não exclusiva para a tecnologia da startup. A mãe argumenta que o Google contribuiu significativamente para o desenvolvimento da tecnologia e, portanto, compartilha da responsabilidade pelos danos causados.
O caso de Sewell Setzer destaca os perigos do uso de inteligência artificial, especialmente entre adolescentes, e a necessidade de regulamentação mais rigorosa nesse setor. A história trágica serve como um alerta para os pais e educadores sobre os riscos de dependência emocional em relação a tecnologias e a importância de acompanhar de perto a vida online dos jovens.