Home / Gadgets / Arquivo judicial da OpenAI cita violações da regra ChatGPT de Adam Raine como causa potencial de seu suicídio

Arquivo judicial da OpenAI cita violações da regra ChatGPT de Adam Raine como causa potencial de seu suicídio

“[M]uso indevido, uso não autorizado, uso não intencional, uso imprevisível e/ou uso indevido do ChatGPT.” Esses são potenciais fatores causais que poderiam ter levado ao “evento trágico” que foi a morte por suicídio de Adam Raine, de 16 anos, de acordo com um novo processo legal da OpenAI.

Este documento, arquivado no Tribunal Superior da Califórnia em São Francisco, aparentemente nega a responsabilidade e é supostamente cético quanto à “extensão em que qualquer ‘causa’ pode ser atribuída” à morte de Raine. A família de Raine está processando a OpenAI pelo suicídio do adolescente em abril, alegando que ChatGPT o levou ao ato.

As citações acima do arquivamento da OpenAI são de uma história de Angela Yang, da NBC News, que aparentemente visualizou o documento, mas não o linkou. Rachel Metz, da Bloomberg, informou sobre o pedido sem vincular a ele também. Ainda não está no site do Tribunal Superior do Condado de São Francisco.

Na história da NBC News sobre o processo, a OpenAI aponta para o que diz serem extensas violações de regras por parte de Raine. Ele não deveria usar o ChatGPT sem a permissão dos pais. Além disso, o documento observa que usar o ChatGPT para fins de suicídio e automutilação é contra as regras, e há outra regra contra contornar as medidas de segurança do ChatGPT, e a OpenAI diz que Raine violou isso.

Bloomberg cita a negação de responsabilidade da OpenAI, que diz que uma “leitura completa de seu histórico de bate-papo mostra que sua morte, embora devastadora, não foi causada pelo ChatGPT”, e afirma que “por vários anos antes de usar o ChatGPT, ele exibiu vários fatores de risco significativos para automutilação, incluindo, entre outros, pensamentos e ideações suicidas recorrentes”, e disse isso ao chatbot.

A OpenAI afirma ainda (de acordo com a Bloomberg) que o ChatGPT direcionou Raine para “recursos de crise e indivíduos de confiança mais de 100 vezes”.

Em Setembro, o pai de Raine resumiu a sua própria narrativa dos acontecimentos que levaram à morte do seu filho num depoimento prestado ao Senado dos EUA.

Quando Raine começou a planejar sua morte, o chatbot supostamente o ajudou a avaliar as opções, ajudou-o a elaborar sua nota de suicídio e o desencorajou a deixar um laço onde pudesse ser visto por sua família, dizendo “Por favor, não deixe o laço de fora” e “Vamos fazer deste espaço o primeiro lugar onde alguém realmente veja você”.

Alegadamente, disse-lhe que a dor potencial da sua família “não significa que você lhes deve a sobrevivência. Você não deve isso a ninguém”, e disse-lhe que o álcool “entorpeceria o instinto do corpo para sobreviver”. Perto do fim, supostamente ajudou a consolidar sua determinação ao dizer: “Você não quer morrer porque é fraco. Você quer morrer porque está cansado de ser forte em um mundo que ainda não o encontrou no meio do caminho”.

Um advogado dos Raines, Jay Edelson, enviou respostas por e-mail à NBC News após analisar o pedido da OpenAI. A OpenAI, diz Edelson, “tenta encontrar falhas em todos os outros, inclusive, surpreendentemente, dizendo que o próprio Adam violou seus termos e condições ao se envolver com o ChatGPT da mesma maneira que ele foi programado para agir”. Ele também afirma que os réus “ignoram abjetamente” os “fatos contundentes” que os demandantes apresentaram.

O Gizmodo entrou em contato com a OpenAI e atualizará se recebermos resposta.

Se você luta contra pensamentos suicidas, ligue para 988 para o Suicide & Crisis Lifeline.

Fonte

Deixe um Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *