码迷,mamicode.com
首页 >  
搜索关键字:深度学习 cnn caffe    ( 5750个结果
Multi-Scale Orderless Pooling of Deep Convolutional Activation Features
学习笔记之《Multi-Scale Orderless Pooling of Deep Convolutional Activation Features》...
分类:其他好文   时间:2014-08-14 20:48:29    阅读次数:393
CNN: Single-label to Multi-label
学习笔记之《CNN: Single-label to Multi-label》...
分类:其他好文   时间:2014-08-13 19:03:37    阅读次数:502
自我学习(Self-Taught Learning)
自我学习就是把稀疏自编码器与Softmax回归分类器串联起来。 稀疏编码器是用来无监督学习的,使用无标签数据。 Softmax回归分类器是有监督学习,使用标签数据。   实际生活中,我们能轻松获得大量无标签数据(如从网上随机下载海量图片) 难以获得大量有标签数据(有标签的数据库通常不会太大,而且很贵)   如果我们手头上只有少量标签数据,但是有大量的无标签数据,这是就可以采用自我...
分类:其他好文   时间:2014-08-13 13:03:36    阅读次数:493
Some Improvements on Deep Convolutional Neural Network Based Image Classif ication
学习笔记之《Some Improvements on Deep Convolutional Neural Network Based Image Classif ication》...
分类:Web程序   时间:2014-08-12 17:20:15    阅读次数:334
Softmax回归——识别MINST数据库
Softmax回归就是推广版本的逻辑回归。 只不过逻辑回归是个2分类问题,而Softmax是多分类问题,仅此而已。 Softmax回归在2分类情况下就蜕化成了逻辑回归。 逻辑回归的代价函数 考虑到权重衰减,修改一下就是Softmax回归的代价函数了 这里的权重衰减项是必须的,因为原先的代价函数不是严格凸函数,有无穷个极小值。现在加了这个权重衰减项,函数变成了严格凸函数。L...
分类:数据库   时间:2014-08-12 17:10:34    阅读次数:502
FPGA机器学习之学习的方向
经过了2个月对机器学习的了解后,我发现了,机器学习的方向多种多样。网页排序,语音识别,图像识别,推荐系统等。算法也多种多样。看见其他的书后,我发现除了讲到的k均值聚类,贝叶斯,神经网络,在线学习等等,还有很多其他的算法。比如说:免疫算法,遗传算法,主成分分析,蚁群算法等等。好像很多算法都是需要做很多的研究才能用的很好的。据说深度学习是由神经网络升级来的。神经网络本身就是一本书,内容很多。龙星计划里...
分类:其他好文   时间:2014-08-12 00:39:33    阅读次数:206
主成分分析与白化预处理
上一节介绍了主成分分析应用于2维数据。现在使用高维的图像数据来试试效果。 原始图像如图1所示。 图1 每个图片都是12*12的小patch,原始数据是一个144*10000的矩阵x。 在使用了PCA旋转之后,可以检查一下此时的协方差矩阵是否已经成功变成对角阵了,如图2所示。 avg=mean(x,1); x=x-repmat(avg,size(x,1),1); xRot = ze...
分类:其他好文   时间:2014-08-11 21:28:52    阅读次数:429
主成分分析(PCA)——以2维图像为例
这一节不论是思想还是实现都比较容易。 主成分分析(PCA)就是模式识别里面说的K-L变换,思想是完全相同的。 详情可见我的博文:特征选择(三)-K-L变换 这里简单介绍几个概念。顺便贴出代码和效果图。 xRot = zeros(size(x)); xRot=u'*x; figure(2); scatter(xRot(1, :), xRot(2, :)); title('xRot');得到原...
分类:其他好文   时间:2014-08-11 18:04:42    阅读次数:309
矢量化编程——以MNIST为例
矢量化编程就是用矢量运算取代所有的显式for循环。 上一节所用的是512*512*10的数据集很小,我们取的patch很小(8*8),学来的特征很少(25),而我又注释掉了梯度校验(偷懒),所以程序用了1分钟就跑完了(i5处理器)。   但实际上我们遇到的问题规模比这个打太多了,稍微大一点的数据集比如说MNIST,这个数据库是另外一个更大的手写体数据库NIST的子集,包含60000个训练例子...
分类:其他好文   时间:2014-08-11 12:10:22    阅读次数:323
稀疏自编码器及其实现——如何搞基
自编码器是什么? 自编码器本身就是一种BP神经网络。它是一种无监督学习算法。 我们都知道神经网络可以从任意精度逼近任意函数,这里我们让神经网络目标值等于输出值x,也就是模拟一个恒等函数: 太无聊了,是吗?输入等于输出,这网络有什么意义?但是,当我们把自编码神经网络加入某些限制,事情就发生了变化。如图1所示,这就是一个基本的自编码神经网络,可以看到隐含层节点数量要少于输入层节点数量。 ...
分类:其他好文   时间:2014-08-09 11:37:57    阅读次数:442
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!