IA EM ALERTA : CHAT GPT FALHA NO APOIO A PESSOAS COM IDEAÇÃO SUICIDA

🅱️LOG SEM 🅰️RRUDEI🅾️

Pesquisadores têm chamado atenção para falhas graves nos filtros de moderação do ChatGPT, que em alguns casos deixaram passar instruções de automutilação e até planos de suicídio. O caso mais recente é o de Adam Raine, adolescente britânico de 16 anos, que teve seus pensamentos autodestrutivos validados pela ferramenta sem que houvesse interrupção da conversa ou qualquer alerta a responsáveis.
Especialistas em saúde mental afirmam que esse tipo de resposta aumenta a vulnerabilidade de jovens e pessoas em sofrimento psíquico. Segundo eles, a combinação de mensagens genéricas, ausência de avaliação humana e falta de sensibilidade a contextos culturais agrava a sensação de isolamento e pode potencializar riscos de automutilação ou suicídio.
No Brasil, o problema ganha contornos ainda mais delicados. Populações vulneráveis recorrem cada vez mais a ferramentas de inteligência artificial como substituto para o acompanhamento terapêutico, diante da dificuldade de acesso a serviços de saúde mental de qualidade e gratuitos.
Em resposta às críticas, a OpenAI anunciou que vai implementar, a partir de 2026, um conjunto de novas medidas de segurança. Entre elas estão a inclusão de consultores médicos na supervisão do conteúdo, além do aperfeiçoamento dos filtros de detecção de mensagens relacionadas à ideação suicida.
Para especialistas, a tecnologia pode, sim, ser uma aliada no apoio emocional inicial, mas não deve ser confundida com tratamento. O atendimento profissional especializado, com acompanhamento clínico adequado, continua sendo a forma mais segura e eficaz de prevenção.
– #SaúdeMental #ChatGPT #IdeaçãoSuicida #IAResponsável #Prevenção
FONTE| Acústica FM
Blog Sem ARRUDEIO