码迷,mamicode.com
首页 > 其他好文 > 详细

前馈神经网络-反向传播(Back Propagation)公式推导走读

时间:2017-04-15 12:28:05      阅读:257      评论:0      收藏:0      [点我收藏+]

标签:add   oca   wss   ii+1   d3d   rpc   tom   hmc   pl2   

 
技术分享
 
构造:输入神经元个数等于输入向量维度,输出神经元个数等于输出向量维度。(x1=(1,2,3),则需要三个输入神经元)
 技术分享
一 前向后传播
 
隐层:技术分享技术分享
输出层:技术分享技术分享
 
一般化技术分享,向量表示  技术分享技术分享
 
 
二 反向传播
 
 
1计算梯度delta:均方误差,利用了sigmoid函数导数的有趣性。
输出层梯度:技术分享 -->  eg. 技术分享
隐层梯度:技术分享  -->   eg. 技术分享
 
 
2更新权重:技术分享
eg输出层:技术分享
eg隐层:技术分享
 

 
备注 反向传播的公式推导
0目标函数:技术分享技术分享
1梯度下降法优化目标函数技术分享技术分享, 怎么计算出误差对于每个权重的偏导数呢?
技术分享
2netj是第j个神经元的加权输入作为传导,链式求导法则 : 技术分享,。
                    技术分享
区分输出层隐藏层两种情况:
3.1 输出层: 借用yj作为传导,netj和Ed都是与yj有关的函数,链式求导法则:技术分享技术分享
第一项:技术分享技术分享     第二项:技术分享技术分享
带入技术分享技术分享,所以输出层梯度:技术分享技术分享
 
3.2隐层:借用节点的所有直接下游节点的集合Downstream(j),链式法则:aj
 技术分享
技术分享
 
带入求得梯度技术分享
 
 技术分享
备注:
激活函数: sigmoid函数是一个非线性函数,导数有趣,可用自身表示。
技术分享
 
 技术分享
 
 
 
参考

前馈神经网络-反向传播(Back Propagation)公式推导走读

标签:add   oca   wss   ii+1   d3d   rpc   tom   hmc   pl2   

原文地址:http://www.cnblogs.com/rongyux/p/6713232.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!