Processos judiciais nos EUA acusam ChatGPT por suicídios e delírios perigosos

Quatro processos por morte injusta foram ajuizados nos EUA contra a OpenAI nesta quinta-feira (6), além de casos de três pessoas que afirmam que o chatbot da empresa levou a colapsos de saúde mental.

Os processos, apresentados em tribunais estaduais da Califórnia, alegam que o ChatGPT, usado por 800 milhões de pessoas, é um produto defeituoso. Uma ação o chama de “defeituoso e inerentemente perigoso”. Uma queixa apresentada pelo pai de Amaurie Lacey diz que o jovem de 17 anos da Geórgia conversou com o bot sobre suicídio por um mês antes de sua morte em agosto. Joshua Enneking, 26 anos, da Flórida, perguntou ao ChatGPT “o que seria necessário para que seus revisores denunciassem seu plano de suicídio à polícia”, segundo uma queixa apresentada por sua mãe. Zane Shamblin, 23 anos, do Texas, morreu por suicídio em julho após incentivo do ChatGPT, segundo a queixa apresentada por sua família.

Joe Ceccanti, 48 anos, do Oregon, usava o ChatGPT sem problemas há anos, mas em abril passou a acreditar que ele era senciente. Sua esposa, Kate Fox, disse em entrevista em setembro que ele começou a usar o ChatGPT compulsivamente e agia de forma errática. Ele teve um surto psicótico em junho, disse ela, e foi hospitalizado duas vezes antes de morrer por suicídio em agosto.

FERRAMENTA GRATUITA

Simulador da XP

Saiba em 1 minuto quanto seu dinheiro pode render

“Os médicos não sabem como lidar com isso”, disse Fox.

Um porta-voz da OpenAI afirmou em comunicado que a empresa está revisando as denúncias, que foram reportadas anteriormente pelo The Wall Street Journal e CNN. “Esta é uma situação incrivelmente dolorosa”, disse o comunicado. “Treinamos o ChatGPT para reconhecer e responder a sinais de sofrimento mental ou emocional, desescalar conversas e orientar as pessoas para apoio no mundo real. Continuamos a fortalecer as respostas do ChatGPT em momentos sensíveis, trabalhando em estreita colaboração com profissionais de saúde mental.”

Outros dois autores — Hannah Madden, 32 anos, da Carolina do Norte, e Jacob Irwin, 30 anos, de Wisconsin — dizem que o ChatGPT causou colapsos mentais que levaram a cuidados psiquiátricos de emergência. Ao longo de três semanas em maio, Allan Brooks, 48 anos, recrutador corporativo de Ontário, Canadá, que também está processando, passou a acreditar que havia inventado uma fórmula matemática com o ChatGPT que poderia quebrar a internet e alimentar invenções fantásticas. Ele saiu dessa delusão, mas disse que agora está em licença médica de curto prazo.

Continua depois da publicidade

“O produto deles me causou dano, e a outros também, e continua causando”, disse Brooks, sobre quem o The New York Times escreveu em agosto. “Estou emocionalmente traumatizado.”

Após a família de um adolescente da Califórnia ter ajuizado um processo por morte injusta contra a OpenAI em agosto, a empresa reconheceu que suas barreiras de segurança podem “se degradar” quando os usuários mantêm longas conversas com o chatbot.

Após relatos neste verão de pessoas tendo experiências problemáticas ligadas ao ChatGPT, incluindo episódios delirantes e suicídios, a empresa adicionou salvaguardas ao seu produto para adolescentes e usuários em sofrimento. Agora existem controles parentais para o ChatGPT, por exemplo, para que os pais recebam alertas se seus filhos discutirem suicídio ou automutilação.

A OpenAI divulgou recentemente uma análise das conversas ocorridas em sua plataforma durante um mês recente que indicou que 0,07% dos usuários podem estar passando por “emergências de saúde mental relacionadas a psicose ou mania” por semana, e que 0,15% estavam discutindo suicídio. A análise foi feita em uma amostra estatística de conversas. Mas, escalando para todos os usuários da OpenAI, essas porcentagens equivalem a 500 mil pessoas com sinais de psicose ou mania, e mais de 1 milhão potencialmente discutindo intenção suicida.

O Tech Justice Law Project e o Social Media Victims Law Center entraram com as ações. Meetali Jain, que fundou o Tech Justice Law Project, disse que os casos foram todos ajuizados em um único dia para mostrar a variedade de pessoas que tiveram interações problemáticas com o chatbot, que é projetado para responder perguntas e interagir com as pessoas de forma semelhante a um humano. As pessoas nos processos estavam usando o ChatGPT-4o, anteriormente o modelo padrão servido a todos os usuários, que desde então foi substituído por um modelo que a empresa diz ser mais seguro, mas que alguns usuários descreveram como frio.

(O Times processou a OpenAI por violação de direitos autorais; a OpenAI negou essas alegações.)

Continua depois da publicidade

c.2025 The New York Times Company

Fonte: Info Money

Obrigado por acompanhar nossas publicações. Nosso compromisso é trazer informação com seriedade, clareza e responsabilidade, mantendo você sempre bem informado sobre os principais acontecimentos que impactam nossa cidade, região e o Brasil. Continue nos acompanhando e participe deixando sua opinião — sua voz é essencial para construirmos juntos um jornalismo mais próximo do leitor.

Ismael Martins de Souza Costa Xavier

Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad minim veniam, quis nostrud exercitation ullamco laboris nisi ut aliquip ex ea commodo consequat. Duis aute irure dolor in reprehenderit in voluptate velit esse cillum dolore eu fugiat nulla pariatur.

The most complete solution for web publishing

Fique sempre com a gente! Nosso jornal traz informação em tempo real, com credibilidade e proximidade. Acompanhe, compartilhe e faça parte dessa história.

Agradecemos a você, leitor, por nos acompanhar e confiar em nosso trabalho. É a sua presença que nos motiva a seguir levando informação com seriedade, clareza e compromisso. Seguiremos juntos, sempre em busca da verdade e da notícia que faz diferença no seu dia a dia.

Jornalista:

Compartilhe esta postagem:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *