Gradient Descent
Atualizado em: 22/02/2026 08:56Imagens Ilustrativas
Definição Básica
Algoritmo de otimização que encontra os melhores parâmetros de um modelo minimizando a função de erro iterativamente.
Definição Detalhada
Gradient Descent calcula o gradiente (derivada parcial) da função de perda em relação a cada parâmetro e atualiza os pesos na direção oposta ao gradiente. Variantes incluem: Batch GD (usa todos os dados), Stochastic GD (usa uma amostra), Mini-batch GD (usa subconjuntos), e otimizadores adaptativos como Adam, RMSprop e AdaGrad que ajustam a taxa de aprendizado por parâmetro.
Exemplos Práticos
Otimização de qualquer modelo de machine learning — de regressão linear a redes neurais profundas.
Termos Relacionados
Criado em: 22/02/2026 08:56
| Última atualização: 22/02/2026 08:56