Redes neurais ganham método de treinamento inspirado no cérebro humano para reconhecer o que não sabem
Pesquisadores do Instituto Avançado de Ciência e Tecnologia da Coreia desenvolveram uma técnica inovadora que permite às redes neurais identificarem quando não possuem conhecimento suficiente para responder com precisão. O estudo, publicado na revista Nature Machine Intelligence, oferece uma solução para um dos problemas mais persistentes da inteligência artificial: a superconfiança em respostas incorretas ou fabricadas.
A equipe liderada pelo professor Se-Bum Paik descobriu que a inicialização aleatória padrão das redes neurais é a causa primária do problema. Durante essa fase inicial, os modelos começam com parâmetros definidos de forma aleatória, o que faz com que exibam alta confiança mesmo em previsões incorretas desde o começo. Essa característica, segundo os pesquisadores, propaga erros ao longo de todo o processo de treinamento e contribui para a ocorrência de alucinações em sistemas de inteligência artificial generativa.
Para resolver essa questão, os cientistas implementaram uma estratégia de aquecimento inspirada no desenvolvimento neurobiológico. O método consiste em treinar brevemente as redes neurais com ruído e rótulos aleatórios antes de expô-las aos dados reais. Essa etapa imita a atividade neural espontânea que acontece no cérebro humano, na qual sinais são gerados sem entrada externa para formar circuitos antes mesmo do nascimento.
O objetivo dessa fase preparatória é fazer com que a inteligência artificial aprenda um estado inicial de não saber nada, calibrando assim suas previsões futuras. Com o aquecimento, a confiança inicial é mantida em níveis baixos, próximos ao acaso, para conteúdos desconhecidos. Dessa forma, o sistema consegue distinguir entre o que conhece e o que não conhece, alinhando sua incerteza com sua precisão real.
Segundo o professor Paik, o estudo demonstra que, ao incorporar princípios fundamentais do desenvolvimento cerebral, a inteligência artificial pode reconhecer seu próprio estado de conhecimento de uma forma mais semelhante à dos humanos. Isso é importante porque ajuda a IA a entender quando está incerta ou pode estar enganada, e não apenas a melhorar a frequência com que fornece respostas corretas.
A técnica mostrou-se eficaz na detecção de informações estranhas, ou seja, dados que não se encaixam no padrão aprendido pelo sistema. As redes neurais treinadas com essa abordagem ficaram habilidosas em identificar o que nunca viram antes, garantindo uma solução confiável para aplicações no mundo real. Entre os campos que podem se beneficiar dessa inovação estão veículos autônomos, suporte a diagnósticos médicos e sistemas de inteligência artificial generativa.
O trabalho foi conduzido por Jeonghwan Cheon, estudante de mestrado no Departamento de Ciências Cognitivas e do Cérebro do KAIST. A pesquisa contou com suporte da Fundação Nacional de Pesquisa da Coreia e do Programa de Pesquisa de Professores Singulares do instituto.