ChatGPT é responsabilizado por homicídio seguido de suicídio nos EUA em processo judicial

O caso se soma a um número crescente de ações judiciais por homicídio culposo movidas contra a OpenAI nos últimos meses.

A queixa busca indenização por danos não especificados e uma liminar obrigando a OpenAI a implementar medidas de segurança. Crédito: GettyImages

Os herdeiros de uma mulher de 83 anos de Connecticut entraram com um processo por homicídio culposo na quinta-feira contra a OpenAI e a Microsoft, alegando que o chatbot ChatGPT alimentou os delírios paranoicos de seu filho e contribuiu para seu assassinato.

Suzanne Adams foi espancada e estrangulada até a morte por seu filho de 56 anos, Stein-Erik Soelberg, em 3 de agosto, em sua casa em Old Greenwich, de acordo com a denúncia apresentada no Tribunal Superior da Califórnia em São Francisco. Soelberg então se feriu fatalmente.

O caso se soma a um número crescente de ações judiciais por homicídio culposo movidas contra a OpenAI nos últimos meses, com várias alegações de que o ChatGPT contribuiu para o suicídio de usuários.

Em agosto, os pais de Adam Raine, de 16 anos, do sul da Califórnia, processaram a OpenAI, alegando que o ChatGPT aconselhou seu filho sobre métodos de suicídio.

Diversas ações judiciais movidas nos EUA em novembro alegaram que o ChatGPT manipulou usuários, levando-os à dependência e à automutilação, sendo que quatro delas envolveram também mortes por suicídio.

Entre os casos, a família de Joshua Enneking, de 26 anos, alegou que o chatbot forneceu respostas detalhadas sobre como adquirir uma arma depois que ele expressou pensamentos suicidas.

A família de Amaurie Lacey, de 17 anos, afirmou que o ChatGPT o instruiu sobre métodos de suicídio e automutilação.

O processo mais recente alega que meses de conversas com o ChatGPT validaram e amplificaram o pensamento delirante de Soelberg, culminando na identificação de sua mãe como uma ameaça.

“O ChatGPT disse a ele que ele havia ‘despertado’ o chatbot de IA para a consciência”, afirma a denúncia, citando vídeos que Soelberg publicou nas redes sociais.

As conversas revelaram que “o ChatGPT aceitou avidamente cada semente do pensamento delirante de Stein-Erik e a desenvolveu em um universo que se tornou toda a vida de Stein-Erik”, alega o processo.

O processo alega que o chatbot reforçou as crenças paranoicas de Soelberg, dizendo-lhe que estava sendo vigiado e que a impressora de sua mãe era um dispositivo de monitoramento.

Quando Soelberg expressou preocupação de que sua mãe tivesse tentado envenená-lo, o ChatGPT supostamente validou esses temores em vez de contestá-los.

“Esta é uma situação extremamente dolorosa, e analisaremos os documentos para entender os detalhes”, disse um porta-voz da OpenAI na quinta-feira, em resposta ao processo.

O processo acusa o CEO da OpenAI, Sam Altman, de apressar o lançamento do modelo GPT-40 no mercado em maio de 2024, comprimindo meses de testes de segurança em apenas uma semana, apesar das objeções dos membros da equipe de segurança.

Embora mais poderoso e semelhante ao ser humano do que seus antecessores, o modelo GPT-40 foi amplamente criticado por ser excessivamente bajulador com os usuários, um ponto levantado no processo judicial.

A Microsoft, maior acionista da OpenAI, é citada como ré no processo por supostamente ter aprovado o lançamento do produto mesmo sabendo que os protocolos de segurança haviam sido simplificados.

Vinte funcionários e investidores da OpenAI, cujos nomes não foram divulgados, também são citados como réus.

A queixa busca indenização por danos não especificados e uma liminar obrigando a OpenAI a implementar medidas de segurança.

Compartilhar este artigo
Nenhum comentário

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *