码迷,mamicode.com
首页 > 其他好文 > 详细

激活函数总结

时间:2020-03-11 10:29:41      阅读:59      评论:0      收藏:0      [点我收藏+]

标签:detail   ken   缓解   gis   art   ima   权重   log   简单的   

参考:

https://blog.csdn.net/weixin_42057852/article/details/84644348

https://blog.csdn.net/akenseren/article/details/80808527

 

激活函数的作用:

使用激活函数,添加了非线性因素,使得网络可以逼近任意非线性函数。

softmax函数

技术图片

 

适用场景:多分类,类别间互斥

特点:输入为一维向量,输出映射到[0, 1],输出结果之和为1。可以简单的将输出结果值认为是概率。

 

sigmoid函数(又称logistic回归)

技术图片

 

适用场景:二分类

特点:输入为单个数值, 输出映射到(0, 1),输出均值大于0,结果之和为一个正数。

优点:在特征相差比较复杂或是相差不是特别大时效果比较好。

缺点:计算量大;反向传播的时候容易出现梯度消失的情况(软饱和性)。

现在不常用了

 

tanh函数

技术图片

 

 

特点:输出映射到(-1, +1),均值为0。

优点:在特征相差明显时效果较好

缺点:当神经网络层数变多时,tanh函数(软饱和性)会出现梯度消失问题。

 

Relu函数

技术图片

 

特点:输出映射到[0,+∞ )

优点:缓解了梯度消失问题。

缺点:随着训练的推进,会出现部分权重无法更新——神经元死亡的问题;输出均值大于0(偏移现象)。

现在经常使用,但是在设置学习率时应小心。

激活函数总结

标签:detail   ken   缓解   gis   art   ima   权重   log   简单的   

原文地址:https://www.cnblogs.com/douliyoutang01/p/12460709.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!