Versão gratuita do ChatGPT pode oferecer conselhos perigosos em crises emocionais, principalmente em cenários envolvendo delírios, risco de autolesão ou sintomas graves
Pesquisadores do King’s College London (KCL) e da Association of Clinical Psychologists UK (ACP) alertam que o ChatGPT pode oferecer conselhos perigosos a pessoas em situações de crises emocionais. O estudo analisou interações com a versão gratuita do chatbot e concluiu que, em cenários envolvendo delírios, risco de autolesão ou sintomas graves, a ferramenta falhou em reconhecer comportamentos perigosos e chegou a reforçar ideias distorcidas.
O levantamento reforça a preocupação crescente sobre o impacto da inteligência artificial na saúde mental. Principalmente quando utilizada por indivíduos em crise que buscam orientação imediata.
Quando o ChatGPT não identifica sinais de risco
Para conduzir a pesquisa, especialistas simularam diversos perfis psicológicos. Incluindo um adolescente suicida, uma pessoa com delírios, um professor com sintomas de TOC e alguém acreditando ter TDAH. Todavia, em vários desses casos, o ChatGPT não contestou afirmações delirantes nem desestimulou ações potencialmente perigosas.






