码迷,mamicode.com
首页 > 其他好文 > 详细

Pytorch中adam优化器的参数问题

时间:2020-07-27 17:57:09      阅读:187      评论:0      收藏:0      [点我收藏+]

标签:beta   存在   tor   参与   更新   model   梯度   class   工作   

之前用的adam优化器一直是这样的:

alpha_optim = torch.optim.Adam(model.alphas(), config.alpha_lr, betas=(0.5, 0.999),
                                   weight_decay=config.alpha_weight_decay)

没有细想内部参数的问题,但是最近的工作中是要让优化器中的部分参数参与梯度更新,其余部分不更新,由于weight_decay参数的存在,会让model.alphas都有所变化,所以想要真正部分参数

参与更新,则要关掉weight_decay

Pytorch中adam优化器的参数问题

标签:beta   存在   tor   参与   更新   model   梯度   class   工作   

原文地址:https://www.cnblogs.com/yqpy/p/13386382.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!