码迷,mamicode.com
首页 > 其他好文 > 详细

RNN梯度问题

时间:2020-06-25 17:19:23      阅读:50      评论:0      收藏:0      [点我收藏+]

标签:loading   深度   影响   效果   通过   原因   info   解决   并且   

梯度消失的原因

在多层网络中,影响梯度大小的因素主要有两个:权重和激活函数的偏导。深层的梯度是多个激活函数偏导乘积的形式来计算,如果这些激活函数的偏导比较小(小于1)或者为0,那么梯度随时间很容易vanishing;相反,如果这些激活函数的偏导比较大(大于1),那么梯度很有可能就会exploding。因而,梯度的计算和更新非常困难。

解决方案:

使用一个合适激活函数,它的梯度在一个合理的范围。LSTM使用gate function,有选择的让一部分信息通过。gate是由一个sigmoid单元和一个逐点乘积操作组成,sigmoid单元输出1或0,用来判断通过还是阻止,然后训练这些gate的组合。所以,当gate是打开的(梯度接近于1),梯度就不会vanish。并且sigmoid不超过1,那么梯度也不会explode。

 

技术图片

 

 

LSTM的效果:

1、当gate是关闭的,那么就会阻止对当前信息的改变,这样以前的依赖信息就会被学到。

2、当gate是打开的时候,并不是完全替换之前的信息,而是在之前信息和现在信息之间做加权平均。所以,无论网络的深度有多深,输入序列有多长,只要gate是打开的,网络都会记住这些信息。

 

 

技术图片

 

 技术图片

 

 

 

 

RNN梯度问题

标签:loading   深度   影响   效果   通过   原因   info   解决   并且   

原文地址:https://www.cnblogs.com/dhName/p/13192209.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!