码迷,mamicode.com
首页 > Web开发 > 详细

The Multilinear Structure of ReLU Networks

时间:2018-07-19 22:30:30      阅读:258      评论:0      收藏:0      [点我收藏+]

标签:com   spl   ted   img   分享图片   cells   sub   ext   一个   

 

两种非常常见的非线性单元:rectified linear units (ReLUs) 和 leaky ReLUs

技术分享图片

我们选取binary hinge loss进行分类

技术分享图片

对于多分类,我们可以定义multiclass hinge loss

技术分享图片

定义Ω为网络的参数空间, L(ω)为loss。

 

由于我们选了ReLU非线性单元作为loss, 那么L(ω)分片线性的。对于参数空间,我们可以将其进行一个划分,

技术分享图片

 

分成有限个open cells Ωu边界N,则损失函数L(ω)在cell的内部光滑的,在边界上是不可微的。

 

下面我们将loss限制在某个cell  Ωu上单独考虑,并且loss拥有multilinear form. 由于multilinear form是调和的,由strong maximum principle知,极值点必定在边界N. 换句话说,ReLU 神经网络 with hinge loss L(ω)不存在可微的局部极值点的

 

目前为止,我们可以知道局部极值有两种情况,

Type I (Flat). 局部极值在cell中,loss为常值。

Type II (Sharp). 局部极值在边界N上。

 

Main Result 1.   Type II局部极值点L(ω)>0.

也就是说,如果存在极值0,那么Type II极值点都是sub-optimal的。

 

若我们考虑更一般的情况:fully connected networks with leaky ReLU nonlinearities. 那么我们有以下结果,

Main Result 2.  Type I局部极值点L(ω)=0. Type II局部极值点L(ω)>0.

 

在存在极值0的情况下,flat 局部极小值都是optimal的,sharp 局部极小值都是sub-optimal的。若不存在极值0,所有的局部极值点都是sharp的。

技术分享图片

 

未完待续。。。

 

The Multilinear Structure of ReLU Networks

标签:com   spl   ted   img   分享图片   cells   sub   ext   一个   

原文地址:https://www.cnblogs.com/skykill/p/9338233.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!