keras.optimizers.Adam (learning _ rate=0.001,beta_1=0.9,beta_2=0.999,epsilon=None,decay=0.0.0 ) beta _ 2:浮点,0 beta1.通常接近1。 epsilon :浮点=0.模糊系数。 如果为None,则默认值为K.epsilon ()。 decay: float=0.每次更新参数时学习率衰减的值。 如果learning_rate为0.001,epoch为3000,则学习率衰减为0.001/3000。 也就是说,学习开始速度除以当前训练的总次数。 amsgrad: boolean .是否应用该算法的AMSGrad变种来自论文《Adam and甜蜜裙》。 3359 blog.csdn.net/leadai/article/details/79178787