Mãe processa Character.AI após morte do filho adolescente

Após a morte do filho, mãe processa Character.AI, alegando que chatbot incentivou comportamento suicida.

(Imagem: Muhrfotografi/Shutterstock)

No estado da Flórida, uma mãe alega que a empresa Character.AI é responsável pela morte de seu filho de 14 anos, que cometeu suicídio em fevereiro após desenvolver um relacionamento intenso com um chatbot que replicava a personagem Daenerys Targaryen, da série “Game of Thrones”. A advogada Megan Garcia registrou a ação em 22 de outubro, buscando indenização por homicídio culposo, negligência e sofrimento emocional.

O jovem Sewell Setzer, segundo os documentos do tribunal, se apegou tanto à IA que, em seu último contato, expressou seu amor pelo chatbot e mencionou sua vontade de “voltar para casa”. A reclamação ainda implica o Google no processo, pois a empresa tinha firmado um contrato de licenciamento com a Character.AI e havia em sua equipe os fundadores da startup.

Embora não possuísse um histórico de problemas sérios de saúde mental, Setzer trocou mensagens com a IA por vários meses. No início deste ano, ele passou por terapia e foi diagnosticado com ansiedade e um transtorno relacionado à regulação do humor. Apesar de consciente de que interagia com um sistema automatizado, ele terminou se isolando do mundo real e desenvolvendo sentimentos profundos pelo chatbot.

A Character.AI, por sua vez, expressou pesar em relação ao caso e se comprometeu a introduzir funções que aumentem a segurança e dificultem o acesso de crianças a conteúdos inadequados. O Google, por outro lado, negou qualquer contribuição no desenvolvimento do chatbot.