throwing away too much information http://deeplearning.net/tutorial/lenet.html http://ufldl.stanford.edu/tutorial/supervised/Pooling/ ...
分类:
其他好文 时间:
2017-09-19 15:12:02
阅读次数:
187
http://blog.csdn.net/l281865263/article/details/50278745 本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神 ...
分类:
其他好文 时间:
2017-09-15 18:50:01
阅读次数:
240
http://www.cs.columbia.edu/~mcollins/notes-spring2013.html http://web.stanford.edu/class/cs224n/syllabus.html ...
分类:
其他好文 时间:
2017-09-12 20:48:01
阅读次数:
118
原文:http://blog.csdn.net/dongtingzhizi/article/details/15962797 Logistic回归总结 PDF下载地址:http://download.csdn.net/detail/lewsn2008/6547463 1.引言 看了Stanford的 ...
分类:
其他好文 时间:
2017-09-06 12:51:41
阅读次数:
331
地址:http://www.cnblogs.com/xinchrome/p/5043480.html 另附Stanford的Numpy Tutorial地址:http://cs231n.github.io/python-numpy-tutorial/ 一、数组方法 创建数组:arange()创建一维 ...
分类:
其他好文 时间:
2017-09-04 17:43:40
阅读次数:
183
http://ufldl.stanford.edu/tutorial/supervised/SoftmaxRegression/ http://ufldl.stanford.edu/tutorial/supervised/ExerciseSupervisedNeuralNetwork/ http:/ ...
分类:
其他好文 时间:
2017-08-29 23:48:40
阅读次数:
274
Introduction Neural NetWork的由来 先考虑一个非线性分类,当特征数很少时,逻辑回归就可以完成了,但是当特征数变大时,高阶项将呈指数性增长,复杂度可想而知。如下图:对房屋进行高低档的分类,当特征值只有x1,x2,x3时,我们可以对它进行处理,分类。但是当特征数增长为x1,x2 ...
分类:
其他好文 时间:
2017-08-29 16:00:53
阅读次数:
351
喜大普奔!!!!! CS231n 2017新鲜出炉啦!!!!! 课程主页:http://cs231n.stanford.edu/ 有讲义,有教案,有讲座,更重要的是——还有官方授课视频!!!!!意不意外?惊不惊喜?开不开心???!!! ...
分类:
编程语言 时间:
2017-08-25 15:58:24
阅读次数:
255
Exercise 1:Linear Regression 实现一个线性回归 重要公式 1.h(θ)函数 2.J(θ)函数 思考一下,在matlab里面怎么表达?如下: 原理如下:(如果你懂了这道作业题,上面的也就懂了) 下面通过图形方式感受一下代价函数 : 3.θ迭代过程(梯度下降) First w ...
分类:
其他好文 时间:
2017-08-25 14:53:26
阅读次数:
178
二叉树在java中我们使用数组的形式保存原数据,这个数组作为二叉树的数据来源,后续对数组中的数据进行节点化操作。 步骤就是原数据:数组 节点化数据:定义 Node节点对象 存储节点对象:通过LinkedList保存Node节点对象 在操作过程中我们需要将当前结点和前一节点、后一节点进行关系绑定 ...
分类:
编程语言 时间:
2017-08-21 23:03:45
阅读次数:
411