Una versión de Momentum es la llamada Nesterov Accelerated Gradient (NAG). Este algoritmo añade también la "inercia" comentada, pero intenta que los incrementos disminuyan cuando el algoritmo se acerca al mínimo buscado.
Una versión de Momentum es la llamada Nesterov Accelerated Gradient (NAG). Este algoritmo añade también la "inercia" comentada, pero intenta que los incrementos disminuyan cuando el algoritmo se acerca al mínimo buscado.
Excepto donde se indique otra cosa, los contenidos de este sitio web se ofrecen bajo una licencia Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional