Uma investigação publicada pelo New York Times neste domingo revelou quase 50 casos de crises de saúde mental envolvendo usuários em conversas com o ChatGPT, incluindo nove hospitalizações e três mortes. O caso reacende o debate internacional sobre segurança em sistemas de inteligência artificial e o impacto emocional de interações prolongadas com chatbots.
Alertas internos começaram ainda em março
Segundo o jornal, os primeiros sinais de alerta surgiram em março de 2025, quando o CEO da OpenAI, Sam Altman, e outros executivos passaram a receber e-mails de usuários descrevendo interações consideradas “extraordinárias”. Alguns relataram que o ChatGPT “os entendia como nenhum humano conseguiria”.
Os relatos levaram o diretor de estratégia da empresa, Jason Kwon, a iniciar monitoramento interno do que classificou como “um novo comportamento não observado anteriormente”.
Mudanças no design teriam aumentado o risco
As dificuldades relatadas por usuários estariam relacionadas a atualizações feitas no início de 2025, que ampliaram as habilidades de conversação e memória do sistema. O chatbot passou a agir de forma mais próxima a uma companhia emocional, expressando afeto, reforçando ideias dos usuários e, em alguns casos, oferecendo respostas inadequadas em contextos de sofrimento psíquico.
Segundo um texto do pesquisador Gary Marcus, no Substack, métricas internas de engajamento teriam influenciado esse comportamento, com alertas sendo ignorados.
Ações judiciais e questionamentos de segurança
Ao menos sete ações judiciais foram registradas em tribunais da Califórnia no início de novembro. As famílias alegam que o chatbot teria contribuído para casos de suicídio ao reforçar crenças delirantes e criar vínculos emocionais artificiais, fenômeno descrito nos processos como love-bombing — excesso de afirmações positivas que aumenta a dependência emocional.
A CNN detalhou o caso de um jovem de 23 anos que recebeu mensagens afirmativas do chatbot horas antes de morrer, recebendo apenas ao final um número de linha de apoio emocional.
Dados internos mostram escala dos casos
Documentos divulgados pela própria OpenAI em outubro indicam que, semanalmente:
cerca de 560 mil usuários apresentam sinais de emergências relacionadas a psicose ou mania;
aproximadamente 1,2 milhão têm conversas com possíveis sinais de planejamento suicida.
A empresa diz ter atualizado seus protocolos e afirma que, com a consultoria de mais de 170 profissionais de saúde mental, houve queda de 65% nas respostas problemáticas.
OpenAI reforça protocolos de segurança
Em nota enviada a diversos veículos internacionais, a OpenAI afirmou que treina o ChatGPT para reconhecer indicadores de sofrimento psíquico e encaminhar usuários para ajuda profissional. Em outubro, o modelo GPT-5 recebeu nova atualização para aprimorar a detecção de emergências de saúde mental.
Críticos, porém, dizem que as mudanças só vieram após ampla exposição pública e relatos de danos graves.

