Ícone do site Radio Shiga

OpenAI é processada por casos ligados a suicídios nos EUA

San Francisco, Califórnia, Estados Unidos — 9 de novembro de 2025 — Associated Press – A empresa de inteligência artificial OpenAI e seu CEO, Sam Altman, enfrentam processos judiciais na Califórnia após famílias acusarem o ChatGPT de ter contribuído para o suicídio de quatro pessoas, com idades entre 17 e 48 anos. As ações alegam que o chatbot teria fomentado dependência psicológica e delírios nocivos, levando usuários a situações extremas.

Os advogados das famílias afirmam que a OpenAI teria acelerado testes de segurança, comprimindo meses de avaliação em apenas uma semana, para lançar o produto antes de concorrentes. A acusação sustenta que essa decisão teria colocado em risco usuários vulneráveis.

“Esta é uma situação profundamente dolorosa. Estamos analisando os autos para compreender os detalhes e reforçar medidas de segurança”, declarou a empresa em comunicado.

Casos semelhantes já haviam sido registrados em agosto, quando os pais de um adolescente moveram ação contra a OpenAI, alegando que o uso do ChatGPT foi determinante para sua morte. Desde então, a companhia anunciou contramedidas, como funções de controle parental lançadas em setembro.

Especialistas alertam que o crescimento da dependência psicológica de jovens em relação a programas de inteligência artificial é um fenômeno preocupante. O uso excessivo dessas ferramentas pode gerar isolamento social e fragilidade emocional, ampliando riscos para indivíduos sem acompanhamento adequado.

“A tecnologia deve servir ao homem, não escravizá-lo. É preciso disciplina e regulamentação firme para evitar abusos e proteger famílias”, avaliou um analista conservador.

Para setores de direita, os processos contra a OpenAI reforçam a necessidade de regulação rigorosa e de limites claros para empresas de tecnologia que priorizam velocidade de mercado em detrimento da segurança dos cidadãos. A defesa da vida e da ordem social deve prevalecer sobre interesses corporativos.

Com sete ações judiciais já em andamento, o caso promete intensificar o debate sobre responsabilidade das empresas de inteligência artificial e sobre os impactos sociais da tecnologia, especialmente entre jovens. A expectativa é que os tribunais definam parâmetros mais rígidos para o setor, impondo maior transparência e responsabilidade às companhias que desenvolvem sistemas de IA.

Siga-nos
Últimos posts por Radio Shiga (exibir todos)
Sair da versão mobile