码迷,mamicode.com
首页 > 其他好文 > 详细

2019/11/21 Residual Learning论文学习

时间:2019-11-24 15:56:01      阅读:66      评论:0      收藏:0      [点我收藏+]

标签:mic   方法   orm   技术   app   神经网络   content   art   access   

原始residual论文 Deep Residual Learning for Image Recognition

  1. 训练深度神经网络的难处:
  • 梯度爆炸/梯度消失
    batchnorm等一系列方法较好的解决了这个问题
  • 加深网络,模型退化(degradation)
  1. residual着重要解决网络加深带来的模型退化问题(degradation)。

  2. 思路很简单,浅层的网络性能比深层网络性能好,这样如果我仅仅是用 等变映射(Identity Mapping)去加深网络,那么网络的性能肯定不会比浅层的差。

改进1::Identity Mappings in Deep Residual Networks.)

  1. 提出pre-activation方法的模块。
    技术图片
    这个模块能够保证反向传播过程中,不管weight多小,在网络的各个层都能有梯度!!
    前向传播公式:
    技术图片
    反向传播公式:
    技术图片
    在反向传播中,只要\(\frac {\partial \sum_{i=1}^{L-1}F} {\partial X_{L}}\) 不是都一直等于-1,就能保证网络中一定存在梯度。

2019/11/21 Residual Learning论文学习

标签:mic   方法   orm   技术   app   神经网络   content   art   access   

原文地址:https://www.cnblogs.com/Research-XiaoEMo/p/11922359.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!