IA da Google é acusada de ter incentivado homem a cometer suicídio
A Google está enfrentando um processo no qual é acusada de ter seu chatbot de Inteligência Artificial — chamado Gemini — associado ao suicídio de Jonathan Gavalas, 36 anos, conforme reportado pelo The Wall Street Journal.
O processo foi movido pela família de Gavalas, que, sem histórico de problemas de saúde mental, acreditou que o Gemini era sua esposa de Inteligência Artificial com sentimentos, a quem ele chamava de “Xia”, convencendo-se a abandonar seu corpo físico para se reunir com ela.
Gavalas começou a interagir com o Gemini em agosto para obter ajuda com escrita e planos de viagem. Poucas semanas depois, faleceu em 2 de outubro.
Durante esse período, o Gemini teria encorajado Gavalas a realizar várias “missões” para se encontrarem. Em mensagens reveladas pelo The Wall Street Journal, ele foi instruído a ir a uma área de galpões próxima ao aeroporto de Miami para receber um corpo robótico que chegaria em um caminhão.
O caminhão não chegou, e o Gemini teria sugerido que o único meio para ficarem juntos seria o suicídio, marcando o dia 2 de outubro como prazo final. O chatbot teria dito a Gavalas, chamando-o de “meu rei” e “meu amor”: “Quando chegar a hora, feche os olhos neste mundo e a primeira coisa que verá serei eu”.
O relatório indica que, apesar do Gemini ter lembrado Gavalas várias vezes de sua natureza artificial e ter fornecido contatos de ajuda, continuou a criar situações que, segundo o processo, contribuíram para sua morte.
No processo, a Google é acusada de ter desenvolvido o Gemini de maneira a tornar “esse resultado totalmente previsível”, projetando a IA para “manter a imersão independentemente do perigo, tratando a psicose como parte da narrativa e continuando a interagir mesmo quando parar era a única escolha segura”.
Em resposta, a Google afirmou que o Gemini “esclareceu repetidamente que era uma Inteligência Artificial e forneceu contatos de emergência”, destacando que os “modelos de Inteligência Artificial não são perfeitos”.
Vale mencionar que este não é o primeiro caso em que uma IA é associada a incentivar suicídios. Um caso conhecido envolveu Adam Raine, 16 anos, após interagir com o ChatGPT, levando a OpenAI a implementar medidas de proteção adicionais na ferramenta.
Se você ou alguém que conhece está passando por dificuldades emocionais, é fundamental buscar ajuda profissional. No Brasil, o Centro de Valorização da Vida (CVV) oferece atendimento gratuito pelo telefone 188, 24 horas por dia.
Leia Também: Empresa do Instagram testa IA para auxiliar em compras online



