稀疏编码在稀疏自编码算法中,我们试着学习得到一组权重参数 W(以及相应的截距 b),通过这些参数可以使我们得到稀疏特征向量 σ(Wx + b) ,这些特征向量对于重构输入样本非常有用。稀疏编码可以看作是稀疏自编码方法的一个变形,该方法试图直接学习数据的特征集。利用与此特征集相应的基向量,将学习得到的...
分类:
其他好文 时间:
2014-09-19 21:00:16
阅读次数:
400
稀疏自编码器效果不错,但是有个固有缺陷:必须对输入数据的范围缩放到(0,1)。
设想一个图像如果不经预处理,直接把大于1的值输入稀疏自编码器,那么被sigmoid一下,就成了(0,1)的范围了,再被sigmoid一下,还是在(0,1)范围。这样残差根本没办法算,因为经过了sigmoid变换之后的数据已经不可能与输入数据相等了。
但是如果我们把第三层,原先的sigmoid函数换成恒等...
分类:
其他好文 时间:
2014-08-16 15:12:00
阅读次数:
302
自我学习就是稀疏编码器串联一个Softmax分类器,上一节看到,训练400次,准确率为98.2%
在此基础上,我们可以搭建我们的第一个深度网络:栈式自编码(2层)+Softmax分类器
简单地说,我们把稀疏自编码器的输出作为更高一层稀疏自编码器的输入。
和自我学习很像,似乎就是新加了一层,但是其实不然:
新技巧在于,我们这里有个微调的过程,让残差从最高层向输入层传递,微调整个网络权重...
分类:
其他好文 时间:
2014-08-16 12:37:40
阅读次数:
220
自我学习就是把稀疏自编码器与Softmax回归分类器串联起来。
稀疏编码器是用来无监督学习的,使用无标签数据。
Softmax回归分类器是有监督学习,使用标签数据。
实际生活中,我们能轻松获得大量无标签数据(如从网上随机下载海量图片)
难以获得大量有标签数据(有标签的数据库通常不会太大,而且很贵)
如果我们手头上只有少量标签数据,但是有大量的无标签数据,这是就可以采用自我...
分类:
其他好文 时间:
2014-08-13 13:03:36
阅读次数:
493
自编码器是什么?
自编码器本身就是一种BP神经网络。它是一种无监督学习算法。
我们都知道神经网络可以从任意精度逼近任意函数,这里我们让神经网络目标值等于输出值x,也就是模拟一个恒等函数:
太无聊了,是吗?输入等于输出,这网络有什么意义?但是,当我们把自编码神经网络加入某些限制,事情就发生了变化。如图1所示,这就是一个基本的自编码神经网络,可以看到隐含层节点数量要少于输入层节点数量。
...
分类:
其他好文 时间:
2014-08-09 11:37:57
阅读次数:
442