Os herdeiros de uma mulher de 83 anos de Connecticut entraram com um processo por homicídio culposo na quinta-feira contra a OpenAI e a Microsoft, alegando que o chatbot ChatGPT alimentou os delírios paranoicos de seu filho e contribuiu para seu assassinato.
Suzanne Adams foi espancada e estrangulada até a morte por seu filho de 56 anos, Stein-Erik Soelberg, em 3 de agosto, em sua casa em Old Greenwich, de acordo com a denúncia apresentada no Tribunal Superior da Califórnia em São Francisco. Soelberg então se feriu fatalmente.
O caso se soma a um número crescente de ações judiciais por homicídio culposo movidas contra a OpenAI nos últimos meses, com várias alegações de que o ChatGPT contribuiu para o suicídio de usuários.
Em agosto, os pais de Adam Raine, de 16 anos, do sul da Califórnia, processaram a OpenAI, alegando que o ChatGPT aconselhou seu filho sobre métodos de suicídio.
Diversas ações judiciais movidas nos EUA em novembro alegaram que o ChatGPT manipulou usuários, levando-os à dependência e à automutilação, sendo que quatro delas envolveram também mortes por suicídio.
Entre os casos, a família de Joshua Enneking, de 26 anos, alegou que o chatbot forneceu respostas detalhadas sobre como adquirir uma arma depois que ele expressou pensamentos suicidas.
A família de Amaurie Lacey, de 17 anos, afirmou que o ChatGPT o instruiu sobre métodos de suicídio e automutilação.
O processo mais recente alega que meses de conversas com o ChatGPT validaram e amplificaram o pensamento delirante de Soelberg, culminando na identificação de sua mãe como uma ameaça.
“O ChatGPT disse a ele que ele havia ‘despertado’ o chatbot de IA para a consciência”, afirma a denúncia, citando vídeos que Soelberg publicou nas redes sociais.
As conversas revelaram que “o ChatGPT aceitou avidamente cada semente do pensamento delirante de Stein-Erik e a desenvolveu em um universo que se tornou toda a vida de Stein-Erik”, alega o processo.
O processo alega que o chatbot reforçou as crenças paranoicas de Soelberg, dizendo-lhe que estava sendo vigiado e que a impressora de sua mãe era um dispositivo de monitoramento.
Quando Soelberg expressou preocupação de que sua mãe tivesse tentado envenená-lo, o ChatGPT supostamente validou esses temores em vez de contestá-los.
“Esta é uma situação extremamente dolorosa, e analisaremos os documentos para entender os detalhes”, disse um porta-voz da OpenAI na quinta-feira, em resposta ao processo.
O processo acusa o CEO da OpenAI, Sam Altman, de apressar o lançamento do modelo GPT-40 no mercado em maio de 2024, comprimindo meses de testes de segurança em apenas uma semana, apesar das objeções dos membros da equipe de segurança.
Embora mais poderoso e semelhante ao ser humano do que seus antecessores, o modelo GPT-40 foi amplamente criticado por ser excessivamente bajulador com os usuários, um ponto levantado no processo judicial.
A Microsoft, maior acionista da OpenAI, é citada como ré no processo por supostamente ter aprovado o lançamento do produto mesmo sabendo que os protocolos de segurança haviam sido simplificados.
Vinte funcionários e investidores da OpenAI, cujos nomes não foram divulgados, também são citados como réus.
A queixa busca indenização por danos não especificados e uma liminar obrigando a OpenAI a implementar medidas de segurança.
