Backpropagation
Atualizado em: 22/02/2026 08:56Imagens Ilustrativas
Definição Básica
Algoritmo fundamental para treinar redes neurais, calculando gradientes de erro para ajustar os pesos da rede.
Definição Detalhada
Backpropagation (propagação reversa) usa a regra da cadeia do cálculo para propagar o erro da saída de volta através de cada camada da rede, calculando quanto cada peso contribuiu para o erro total. Combinado com otimizadores como SGD, Adam ou AdaGrad, esses gradientes são usados para atualizar os pesos iterativamente, minimizando a função de perda. É o algoritmo que viabilizou o treinamento de deep learning.
Exemplos Práticos
Treinamento de qualquer rede neural: desde um classificador simples de dígitos até GPT-4 com trilhões de parâmetros.
Termos Relacionados
Criado em: 22/02/2026 08:56
| Última atualização: 22/02/2026 08:56