El optimizador Gradient Descent visto no el único utilizado. De hecho, existe toda una familia de optimizadores que, basados en el enfoque de descenso de gradiente, intentan mejorar el rendimiento de éste. Entre otros, tenemos:
- Stochastic Gradient Descent
- Mini-batch Gradient Descent
- Momentum
- AdaGrad
- RMSProp
- Adam