Adam

Adam o Adaptative Moment Optimization combina la metodología de Momentum y RMSProp, calculando una combinación lineal entre el incremento actual y el incremento anterior, y considera los gradientes recientemente aparecidos en las actualizaciones para mantener diferentes tasas de aprendizaje por variable.