首页 > 编程知识 正文

神经网络调参,keras中文手册

时间:2023-05-05 00:51:24 阅读:30093 作者:3144

keras.optimizers.Adam (learning _ rate=0.001,beta_1=0.9,beta_2=0.999,epsilon=None,decay=0.0.0 ) beta _ 2:浮点,0 beta1.通常接近1。 epsilon :浮点=0.模糊系数。 如果为None,则默认值为K.epsilon ()。 decay: float=0.每次更新参数时学习率衰减的值。 如果learning_rate为0.001,epoch为3000,则学习率衰减为0.001/3000。 也就是说,学习开始速度除以当前训练的总次数。 amsgrad: boolean .是否应用该算法的AMSGrad变种来自论文《Adam and甜蜜裙》。 3359 blog.csdn.net/leadai/article/details/79178787

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。