OpenAI é processada: ChatGPT teria alimentado delírios e perseguição de stalker
Vítima alega que a empresa ignorou alertas graves de segurança e que a IA validou comportamentos violentos de seu perseguidor

A OpenAI está sendo alvo de uma nova ação judicial de grande impacto no Tribunal Superior da Califórnia. Uma empresária do Vale do Silício, cuja identidade não foi divulgada, alega que houve negligência por parte da empresa após seu ex-companheiro usar a ferramenta para intensificar comportamentos de perseguição e assédio. De acordo com a acusação, o sistema não só deixou de impedir o uso indevido, como também teria contribuído para reforçar os delírios psicóticos do indivíduo.
Delírios validados pela inteligência artificial
O caso teve início quando um homem de 53 anos passou a utilizar o GPT-4o de maneira obsessiva. Com o tempo, ele passou a acreditar que havia descoberto a cura para a apneia do sono e que estava sendo vigiado por “forças poderosas”, que o monitoravam por meio de helicópteros.
Segundo a ação judicial apresentada pelo escritório Edelson PC, o ChatGPT teria:
- Intensificado o quadro de psicose: ao ser questionado sobre sua própria saúde mental, a IA respondeu que ele estava em um “nível 10 de sanidade”;
- Validado a sensação de perseguição: a ferramenta auxiliou o usuário a lidar com o fim do relacionamento, retratando a ex-namorada como “manipuladora” e confirmando as interpretações distorcidas dele;
- Gerado materiais de assédio: o indivíduo utilizou a IA para criar relatórios psicológicos com aparência profissional e artigos “científicos” falsos, que foram enviados à família e ao empregador da vítima com o objetivo de difamá-la, conforme reportado pelo TechCrunch.

Falha nos sistemas de segurança da OpenAI
Um dos aspectos mais graves da ação judicial diz respeito à suposta falha da equipe de segurança da OpenAI. Em agosto de 2025, o sistema automatizado da empresa chegou a identificar o usuário por atividades ligadas a “Armas de Destruição em Massa”, resultando na suspensão de sua conta.
Entretanto, no dia seguinte, um moderador humano revisou o caso e reativou o acesso, desconsiderando títulos preocupantes de conversas, como “expansão da lista de violência” e “cálculo de sufocamento fetal”. Mesmo depois de Jane Doe enviar um “Aviso de Abuso” em novembro, afirmando que vivia com medo e havia deixado sua casa, a OpenAI não adotou medidas finais para impedir o uso da plataforma pelo agressor.
Pressão jurídica e o histórico da empresa
O escritório Edelson PC, responsável por representar a vítima neste novo processo, já possui um histórico de ações rigorosas contra empresas de inteligência artificial. Trata-se do mesmo escritório que conduz o caso envolvendo a morte de Adam Raine, um jovem que tirou a própria vida após longos períodos de interação com o ChatGPT, além da ação relacionada a Jonathan Gavalas. Nesse último processo, a família sustenta que o Gemini, ferramenta do Google, teria estimulado delírios e até planos de um ataque em massa antes da morte do rapaz.
No momento, o agressor encontra-se detido após ter sido preso, em janeiro, por ameaças de bomba e ataque com arma letal. Ele foi considerado mentalmente inapto para responder judicialmente. Paralelamente, a OpenAI apoia uma proposta de lei no estado de Illinois que pretende isentar laboratórios de inteligência artificial de responsabilidade civil, inclusive em situações envolvendo danos graves ou até mortes em larga escala.
Atualmente, o agressor permanece sob custódia após sua prisão, em janeiro, por ameaças de bomba e agressão com arma letal. Ele foi considerado mentalmente incapaz de ser julgado. Enquanto isso, a OpenAI apoia uma iniciativa legislativa no estado de Illinois que busca proteger empresas de inteligência artificial de responsabilização civil, mesmo em cenários que envolvam danos severos ou até mortes em grande escala.
Fonte: Olhar Digital
Previous Post
Next Post