ufldl学习笔记与编程作业:Logistic Regression(逻辑回归)
ufldl出了新教程,感觉比之前的好,从基础讲起,系统清晰,又有编程实践。
在deep learning高质量群里面听一些前辈说,不必深究其他机器学习的算法,可以直接来学dl。
于是最近就开始搞这个了,教程加上matlab编程,就是完美啊。
新教程的地址是:http://ufldl.stanford.edu/tutorial/
ufldl出了新教程,感觉比之前的好,从基础讲起,系统清晰,又有编程实践。
在deep ...
分类:
其他好文 时间:
2014-08-05 22:43:40
阅读次数:
346
ufldl学习笔记与编程作业:Vectorization(向量化/矢量化)
ufldl出了新教程,感觉比之前的好,从基础讲起,系统清晰,又有编程实践。
在deep learning高质量群里面听一些前辈说,不必深究其他机器学习的算法,可以直接来学dl。
于是最近就开始搞这个了,教程加上matlab编程,就是完美啊。
新教程的地址是:http://ufldl.stanford.edu/tutorial/
ufldl出了新教程,感觉比之前的好,从基础讲起,系统清晰,又有编程实践。
在deep lea...
分类:
其他好文 时间:
2014-08-05 22:35:40
阅读次数:
267
ufldl学习笔记与编程作业:Debugging: Gradient Checking(梯度检测)
ufldl出了新教程,感觉比之前的好,从基础讲起,系统清晰,又有编程实践。
在deep learning高质量群里面听一些前辈说,不必深究其他机器学习的算法,可以直接来学dl。
于是最近就开始搞这个了,教程加上matlab编程,就是完美啊。
新教程的地址是:http://ufldl.stanford.edu/tutorial/
ufldl出了新教程,感觉比之前的好,从基础讲起,系统清晰,又有编程实践。...
分类:
其他好文 时间:
2014-08-05 22:35:30
阅读次数:
202
ufldl学习笔记与编程作业:Linear Regression(线性回归)
ufldl出了新教程,感觉比之前的好,从基础讲起,系统清晰,又有编程实践。在deep learning高质量群里面听一些前辈说,不必深究其他机器学习的算法,可以直接来学dl。
于是最近就开始搞这个了,教程加上matlab编程,就是完美啊。
新教程的地址是:http://ufldl.stanford.ed...
分类:
其他好文 时间:
2014-08-05 00:40:58
阅读次数:
328
UFLDL 教程答案 稀疏编码篇与softmax篇的答案已经传到资源,大家可以免费下载~
另外,关于资源里面描述的低效率的代码的问题,逗比的博主已经找到了解决方案,大家需要修改两个文件的两处代码,绿色是需要被注释的
softmaxCos.m文件
%% 非向量化
%for i = 1 : numCases
% thetagrad = thetagrad + (groundTruth(...
分类:
其他好文 时间:
2014-07-30 09:59:23
阅读次数:
696
一直犹豫稀疏编码怎么写,来来回回看了好几遍的UFLDL。因为这不仅是DL深度学习的重要概念,也是我这段时间一直在研究的stacked ISA 深度特征学习的支柱。
这章将主要介绍一下稀疏编码的主要概念,及主成分分析的方法。
稀疏编码算法是一种无监督(unsupervised)学习方法,它用来寻找一组“超完备”基向量来更高效地表示样本数据。(设x的维数为n,则k>n)
超完备基能更有效地找...
分类:
其他好文 时间:
2014-07-26 02:23:36
阅读次数:
614
Deep
Learning(深度学习):ufldl的2个教程(这个没得说,入门绝对的好教程,Ng的,逻辑清晰有练习):一ufldl的2个教程(这个没得说,入门绝对的好教程,Ng的,逻辑清晰有练习):二Bengio团队的deep
learning教程,用的theano库,主要是rbm系列,搞pytho...
分类:
其他好文 时间:
2014-06-07 20:05:57
阅读次数:
849
之前看Autoencoder的时候,做了一下这里的练习:http://ufldl.stanford.edu/wiki/index.php/Exercise:Sparse_Autoencoder 。其实 从1月份就开始做了,当时没有调试通过,后来又加班太多,一直没有接着做。直到上上周末抽空调了一天,终于顺利完成了,又拖到这周末才开始把实验结果整理成文。看来,做事还得趁热打铁,一气呵成。时间一久,积极...
分类:
其他好文 时间:
2014-05-25 08:53:28
阅读次数:
907