http://hi.baidu.com/chb_seaok/item/6307c0d0363170e73cc2cb65个人阅读的Deep Learning方向的paper整理,分了几部分吧,但有些部分是有交叉或者内容重叠,也不必纠结于这属于DNN还是CNN之类,个人只是大致分了个类。目前只整理了部分...
分类:
其他好文 时间:
2015-05-28 19:42:37
阅读次数:
291
算法:
开源项目:
shogun :SHOGUN是一个关于大规模机器学习的工具包,它尤其关注支持向量机(SVM)。
https://github.com/shogun-toolbox/shogun
caffe:a fast open framework for deep learning.
https://github.com/BVLC/caffe...
分类:
其他好文 时间:
2015-05-28 16:18:25
阅读次数:
171
从统计学角度来看深度学习(2):自动编码器和自由能原文链接:http://blog.shakirm.com/2015/03/a-statistical-view-of-deep-learning-ii-auto-encoders-and-free-energy/作者:Shakir Mohamed 翻...
分类:
其他好文 时间:
2015-05-27 11:58:03
阅读次数:
298
从统计学角度来看深度学习(1):递归广义线性模型原文链接:http://blog.shakirm.com/2015/01/a-statistical-view-of-deep-learning-i-recursive-glms/作者:Shakir Mohamed 翻译:王小宁 审校:冯凌秉 ...
分类:
其他好文 时间:
2015-05-27 11:55:30
阅读次数:
196
Why are Eight Bits Enough for Deep NeuralNetworks?Deep learning is a very weird technology. It evolved over decades on a very different track than the...
分类:
Web程序 时间:
2015-05-25 21:48:55
阅读次数:
136
笔者实力有限,诸多错误之处还望指出。
SAE与DBN两个都可以用于提取输入集特征的算法。
SAE是由多个Spase AutoEncoder堆叠而成,单个Spase AutoEncoder的结构如下:
在堆叠成SAE时的结构如下:
以上SAE的结构可以化分为两个sparse autoencoder和一个 softmax(这里不讨论softmax).其中的两个sparse autoenc...
分类:
数据库 时间:
2015-05-25 14:43:49
阅读次数:
1356
斯坦福deep learning教程中的自稀疏编码器的练习,主要是参考了 http://www.cnblogs.com/tornadomeet/archive/2013/03/20/2970724.html,没有参考肯定编不出来。。。Σ( ° △ °|||)︴ 也当自己理解了一下这里的自稀疏编码器,...
分类:
Web程序 时间:
2015-05-22 16:24:14
阅读次数:
272
机器学习算法中如何选取超参数:学习速率、正则项系数、minibatch size本文是《Neural networks and deep learning》概览中第三章的一部分,讲机器学习算法中,如何选取初始的超参数的值。(本文会不断补充)学习速率(learning rate,η)运用梯度下降算法进...
分类:
编程语言 时间:
2015-05-19 22:23:04
阅读次数:
167
正则化方法:L1和L2 regularization、数据集扩增、dropout本文是《Neural networks and deep learning》概览中第三章的一部分,讲机器学习/深度学习算法中常用的正则化方法。(本文会不断补充)正则化方法:防止过拟合,提高泛化能力在训练数据不够多时,或者...
分类:
其他好文 时间:
2015-05-19 22:09:23
阅读次数:
230
A Brief Overview of Deep Learning(This is a guest post byIlya Sutskeveron the intuition behind deep learning as well as some very useful practical adv...
分类:
其他好文 时间:
2015-05-13 21:35:21
阅读次数:
124