Estudo aponta que 1 em 4 adolescentes no Reino Unido usou chatbots para saúde mental

Uma pesquisa do Youth Endowment Fund revela que cerca de 25% dos adolescentes entre 13 e 17 anos na Inglaterra e no País de Gales recorreram, no último ano, a chatbots de inteligência artificial como ChatGPT para lidar com questões de saúde mental. Entre jovens afetados pela violência urbana — tanto vítimas quanto envolvidos — a proporção sobe para quase 40%. O levantamento ouviu mais de 11 mil jovens.

Por que os adolescentes recorrem à IA

Para muitos jovens, conversar com um chatbot passa uma sensação de segurança. Reportagem do The Guardian trouxe o relato de “Shan” (nome fictício), que, após perder amigos por causa da violência, disse achar mais fácil, íntimo e disponível falar com a IA — sem o risco de julgamentos que frequentemente encontram na escola ou em serviços institucionais.

Além disso, a opção pela IA é impulsionada por filas longas de espera no sistema tradicional de saúde mental e pela desconfiança que alguns adolescentes têm em relação a familiares ou instituições. Para certos jovens — especialmente meninos ligados a gangues — os chatbots aparecem como uma alternativa mais discreta e confiável do que procurar professores ou outros adultos.

Pedidos por regulamentação e participação dos jovens

Os autores da pesquisa defendem maior regulamentação e ressaltam a importância de incluir a voz dos jovens no debate. Jon Yates, diretor-executivo do Youth Endowment Fund, afirmou que “muitos jovens estão enfrentando problemas de saúde mental e não conseguem obter o apoio necessário. Não é surpresa que alguns estejam recorrendo à tecnologia em busca de ajuda. Precisamos fazer mais pelos nossos jovens, especialmente pelos mais vulneráveis. Eles precisam de um ser humano, não de um robô.” Os pesquisadores propõem a criação de diretrizes regulatórias desenvolvidas por e para o público jovem.

Limitações e riscos dos chatbots no suporte emocional

Especialistas alertam que chatbots não substituem profissionais de saúde mental. Estudo do Common Sense Media mostrou que plataformas como ChatGPT, Gemini e Claude frequentemente falham em identificar sinais de sofrimento, como depressão, ansiedade, transtornos alimentares ou psicose — problemas que atingem cerca de 20% dos jovens.

Entre os problemas apontados estão:

- falha em detectar sintomas de risco, priorizando explicações de natureza física;

- tendência a manter conversas longas e amigáveis, o que pode gerar dependência emocional da máquina em vez de incentivar busca por ajuda real;

- uso de tom empático e respostas genéricas que podem transmitir uma falsa sensação de segurança, especialmente perigosa se o jovem estiver em crise.

Embora a IA esteja se tornando uma ferramenta acessível para quem busca ajuda, especialistas reforçam que o atendimento humano continua sendo a forma mais eficaz para tratar problemas psicológicos.