主要分享了Coursera 机器学习相关课程材料,包括练习题与我的Matlab解答。 课程涉及技术:梯度下降、线性回归、监督/非监督学习、分类/逻辑回归、正则化、神经网络、梯度检验/数值计算、模型选择/诊断、学习曲线、评估度量、SVM、K-Means聚类、PCA、Map Reduce & Data ...
分类:
系统相关 时间:
2015-07-11 06:41:10
阅读次数:
442
简介
本篇继续进行机器学习,主要是使用opencv,用c语言实现机器学习之一元线性回归、正规方程法。
关于这部分的原理,可以参考:1、https://www.coursera.org/learn/machine-learning/home/info
2、http://blog.csdn.net/xiazdong/article/deta...
分类:
其他好文 时间:
2015-07-09 21:30:26
阅读次数:
226
这一节讲的是正则化,在优化中一直会用到正则化项,上课的时候老师一句话代过,没有作过多的解释。听完这节课后,才明白好大学和野鸡大学的区别有多大。总之,这是很有收获的一节课。 首先介绍了为什么要正则化,简单说就是将复杂的模型用简单的模型进行表示,至于如何表示,这中间有一系列推导假设,很有创意。 ...
分类:
其他好文 时间:
2015-06-30 10:02:32
阅读次数:
150
1.进程互斥
由于各个进程需要使用共享资源(变量,文件等),而这些资源需要排它性使用,各个进程之间竞争使用这些资源,这一关系称为进程互斥。
2.临界资源(也称互斥资源、共享变量)
系统中一次只允许一个进程使用的资源。
3.临界区(也称互斥区)
各个进程中对某个临界资源实施操作的程序片段。
临界区的使用原则:
(本文内容整理自coursera上陈...
分类:
系统相关 时间:
2015-06-28 21:40:03
阅读次数:
277
这一节讲的是overfitting,听完对overfitting的理解比以前深刻多了。 先介绍了过拟合,后果就是Ein很小,而Eout很大。然后分别分析了造成过拟合的原因。 首先是对横型复杂度对过拟合的探讨。模型越复杂,越可能产生过拟合。然后给出了造成这一结果的原因:样本数量太小。这是...
分类:
其他好文 时间:
2015-06-28 16:52:26
阅读次数:
183
这一节讲线性模型,先将几种线性模型进行了对比,通过转换误差函数来将linear regression 和logistic regression 用于分类。比较重要的是这种图,它解释了为何可以用Linear Regression或Logistic Regression来替代Linear Classif...
分类:
其他好文 时间:
2015-06-27 15:46:40
阅读次数:
138
这一节课主要讲如何用logistic regression做分类。 在误差衡量问题上,选取了最大似然函数误差函数,这一段推导是难点。 接下来是如何最小化Ein,采用的是梯度下降法,这个比较容易。 参考:http://beader.me/mlnotebook/section3/logistic-re....
分类:
其他好文 时间:
2015-06-25 22:56:17
阅读次数:
226
这节课讲的是线性回归。与其他课程的线性回归相比,这门课要更加理论。通过说明线性回归误差是二分类误差的上界,来证明线性回归可以用于二元分类。参考:http://www.douban.com/note/323611077/
分类:
其他好文 时间:
2015-06-25 19:21:09
阅读次数:
160
这节课同样非常的抽象,主要讲的是VC Dimension,这节课最重要的是这幅图:参考:http://www.cnblogs.com/HappyAngel/p/3633989.html
分类:
其他好文 时间:
2015-06-23 13:12:23
阅读次数:
217
http://www.zhihu.com/question/19895141stanford NLP课程网址https://class.coursera.org/nlp/lecture14 个回答赞同337反对,不会显示你的姓名吴俣,自然语言处理民工杨泽、林斌、王汪汪等人赞同推荐《数学之美》,这个书...
分类:
编程语言 时间:
2015-06-22 22:13:44
阅读次数:
289