5 de setembro de 2025
NotíciasNotícias 24hs

ChatGPT anuncia recurso de controle parental após família alegar que jovem cometeu suicídio ao receber orientações de autoagressão

Estudo recente aponta que 8,7% dos usuários de Inteligência Artificial recorrem a suporte emocional

 

Psicóloga orienta sobre os cuidados ao utilizar a IA como terapeuta

A empresa OpenAI, detentora do ChatGPT, anunciou na última terça-feira (2) que a partir de outubro irá oferecer ferramentas de controle parental à plataforma com objetivo de ajudar as famílias a monitorarem como seus filhos adolescentes usam o aplicativo. A medida foi anunciada uma semana após os pais de um adolescente dos Estados Unidos processarem a empresa alegando que o filho de 16 anos se suicidou depois de receber do ChatGPT orientações sobre métodos de autoagressão.

Com este caso recente, cresceu o debate sobre os limites do uso de aplicativos de inteligência artificial e chatbots para autoterapia digital. Segundo levantamento da Sentio University (2025), 8,7% dos usuários de IA que relatam problemas de saúde mental recorrem ao ChatGPT como suporte terapêutico. A tendência preocupa especialistas, especialmente em um cenário como o do Brasil, onde 18 milhões de pessoas, ou 9,3% da população, sofrem com transtorno de ansiedade, de acordo com a OMS.

Para a psicóloga e professora da Estácio, Sydennya Lima, o alerta central é a incapacidade da tecnologia de compreender a complexidade do sofrimento humano. “A IA pode até apresentar conceitos e aspectos do que seria um quadro depressivo ou ansioso, mas não dispõe de habilidades de escuta, avaliação e compreensão da dimensão e complexidade da subjetividade humana. A empatia e o vínculo terapêutico são imprescindíveis nesse processo”, afirma.

Entre os perigos dessa autoterapia digital estão a ausência de triagem profissional, diagnósticos incorretos, respostas padronizadas e a incapacidade de intervir adequadamente em crises.

“Para uma pessoa que tem risco de suicídio, por exemplo, é preciso avaliar o grau de risco, até mesmo um profissional treinado e com experiência pode ter dificuldades em analisar o caso, muitas vezes o paciente pode estar resistente e apresentar rigidez cognitiva, por vezes sendo necessário acionar uma rede de apoio ou o serviço de urgência. Sem uma preparação para acolher e avaliar essa demanda, a situação pode se agravar. A inteligência artificial pode não detectar sinais e sintomas relevantes ou deixar passar informações importantes, o que pode resultar em agravamento do quadro”, alerta a especialista.

Outro ponto sensível é a chamada “empatia simulada”: respostas ajustadas para agradar, mas sem base técnica ou intervenção clínica real. Além disso, há a vulnerabilidade dos dados pessoais inseridos nessas plataformas, que podem estar sujeitos a vazamentos.

‘’O Conselho Federal de Psicologia orienta que, ao utilizar essas plataformas, precisamos adotar diretrizes e critérios compatíveis com o exercício legal da nossa profissão. Além disso, precisamos estar atentos aos preceitos técnicos que respeitem o bem-estar de cada indivíduo, mantendo uma postura crítica sempre avaliando os riscos e benefícios do uso de tecnologias, garantindo que os princípios éticos estejam sendo seguidos. Principalmente se a IA escolhida garante a segurança dos dados”, explica a psicóloga.

Apesar das limitações, Sydennya reconhece que a IA pode ser aliada dos psicólogos quando usada com supervisão. “Ela pode auxiliar em análises de dados, padronização de protocolos, desenvolvimento de aplicativos para monitoramento de humor e sono, e em outras questões burocráticas como agendamento e transcrição de dados”. Entr

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *