word2vec是Google在2013年提出的一款开源工具,其是一个Deep Learning(深度学习)模型(实际上该模型层次较浅,严格上还不能算是深层模型,如果word2vec上层再套一层与具体应用相关的输出层,如Softmax,便更像是一个深层模型),它将词表征成实数值向量,采用CBOW(Continuous Bag-Of-Words Model,连续词袋模型)和Skip-Gram(Con...
分类:
Windows程序 时间:
2015-02-04 23:30:43
阅读次数:
1071
机器学习Machine Learning - Andrew NG
courses学习笔记
矩阵和向量及其表示介绍
what are matrices矩阵
matrix is just another way for saying, is a 2D or a two dimensional array.
dimension of the matrix
is going to be ...
分类:
系统相关 时间:
2015-02-04 20:26:35
阅读次数:
197
茫然中不知道该做什么,更看不到希望。 偶然看到coursera上有Andrew Ng教授的机器学习课程以及他UFLDL上的深度学习课程,于是静下心来,视频一个个的看,作业一个一个的做,程序一个一个的写。N多数学的不懂、Matlab不熟悉,开始的时候学习进度慢如蜗牛,坚持了几个月,终于也学完了。...
分类:
其他好文 时间:
2015-02-04 16:23:11
阅读次数:
319
本栏目(机器学习)下机器学习基石专题是个人对Coursera公开课机器学习基石(2014)的学习心得与笔记。所有内容均来自Coursera公开课Machine Learning Foundations中Hsuan-Tien Lin林轩田老师的讲解。(https://class.coursera.org/ntumlone-002/lecture)
第5讲-------Training vers...
分类:
其他好文 时间:
2015-02-04 14:45:53
阅读次数:
175
本栏目(机器学习)下机器学习基石专题是个人对Coursera公开课机器学习基石(2014)的学习心得与笔记。所有内容均来自Coursera公开课Machine Learning Foundations中Hsuan-Tien Lin林轩田老师的讲解。(https://class.coursera.org/ntumlone-002/lecture)
第7讲-------The VC dimens...
分类:
其他好文 时间:
2015-02-04 14:45:12
阅读次数:
433
本栏目(机器学习)下机器学习基石专题是个人对Coursera公开课机器学习基石(2014)的学习心得与笔记。所有内容均来自Coursera公开课Machine Learning Foundations中Hsuan-Tien Lin林轩田老师的讲解。(https://class.coursera.org/ntumlone-002/lecture)
第一讲-------The Learning...
分类:
其他好文 时间:
2015-02-04 12:57:08
阅读次数:
262
本栏目(机器学习)下机器学习基石专题是个人对Coursera公开课机器学习基石(2014)的学习心得与笔记。所有内容均来自Coursera公开课Machine Learning Foundations中Hsuan-Tien Lin林轩田老师的讲解。(https://class.coursera.org/ntumlone-002/lecture)
第3讲-------Types of Lear...
分类:
其他好文 时间:
2015-02-04 12:55:00
阅读次数:
181
斯坦福大学机器学习公开课---Programming Exercise 1: Linear Regression
1 Linear regression with one variable
In thispart of this exercise, you will implement linear regression with one variableto predict profi...
分类:
其他好文 时间:
2015-02-04 00:39:42
阅读次数:
715
又是接近一年的尾声,不知不觉每天坚持学习英语已经两年了,不知不觉中英语水平也确实有了不小的提高。在米老师眼里无论做什么事成功都是早晚的事,有人能坚持到自己成功的那一天,有些人却坚持不到那一天。但是无论是英语的学习还是计算机学习,都没有绝对的成功,学习的道路上永无止境,相对于其他人毕业以后还能坚持每天至少两个小时的英语学习,也许我们就算是成功了,但是相对于那些真正的成功人士,树立终身学习的思想我们还...
分类:
其他好文 时间:
2015-02-03 21:26:24
阅读次数:
164
我们前面已经讲了如何训练稀疏自编码神经网络,当我们训练好这个神经网络后,当有新的样本输入到这个训练好的稀疏自编码器中后,那么隐藏层各单元的激活值组成的向量就可以代表(因为根据稀疏自编码,我们可以用来恢复),也就是说就是在新的特征下的特征值。每一个特征是使某一个取最大值的输入。假设隐藏层单元有200个...
分类:
其他好文 时间:
2015-02-03 16:48:23
阅读次数:
460