本系列博文记录斯坦福大学公开课-机器学习课程的学习笔记。Machine Learning definitionArthur Samuel(1959): Field of study that gives computers the ability to learn without being exp...
分类:
其他好文 时间:
2015-03-29 19:23:18
阅读次数:
151
第一次接触复杂性科学是在一本叫think complexity的书上,Allen博士很好的讲述了数据结构与复杂性科学,barabasi是一个知名的复杂性网络科学家,barabasilab则是他所主导的一个实验室,这里的笔记则是关于里面介绍的课程的slider的笔记,当然别人的课程不是公开课,所以从p...
分类:
Web程序 时间:
2015-03-29 17:58:44
阅读次数:
299
Blocks
Time Limit: 1000MS Memory Limit: 65536K
Total Submissions: 4529 Accepted: 2044
DescriptionPanda has received an assignment of painting a line of blocks. Since Panda is such an intell...
分类:
其他好文 时间:
2015-03-29 09:25:12
阅读次数:
125
这篇博客针对的AndrewNg在公开课中未讲到的,线性回归梯度下降的学习率进行讨论,并且结合例子讨论梯度下降初值的问题。线性回归梯度下降中的学习率上一篇博客中我们推导了线性回归,并且用梯度下降来求解线性回归中的参数。但是我们并没有考虑到学习率的问题。我们还是沿用之前对于线性回归形象的理解:你站在山顶...
分类:
系统相关 时间:
2015-03-29 00:33:32
阅读次数:
300
本系列内容均来自Standford公开课machine learning中Andrew老师的讲解,附加自己的一些编程实现和学习笔记。第一章 Linear regression 1.线性回归线性回归是一种监督学习的方法。线性回归的主要想法是给出一系列数据,假设数据的拟合线性表达式为:如何求得参数θ成为...
分类:
系统相关 时间:
2015-03-28 12:47:22
阅读次数:
214
1. 极限简单的极限,我们可以通过直接代入法求解,如:
limx→3x2+1x+1=3\lim_{x\to 3}\frac{x^2+1}{x+1} = 3我们知道我们在利用极限求导数时:
limx→x0ΔfΔx=limx→x0f(x0+Δx)?f(x0)Δx\lim_{x\to x_0}\frac{\Delta f}{\Delta x}=\lim_{x\to x_0}\frac{f(x_0+\D...
分类:
其他好文 时间:
2015-03-21 23:03:50
阅读次数:
437
1. 导数的几何意义函数f(x)f(x)在点PP的导数定义为PP点在函数曲线上的该点切线的斜率。但是如何来准确的求出曲线在该点的切线呢。有两点要注意:
切线并不是只与曲线只有一个交点的线
它是曲线上另一点逐渐靠近PP点时,形成的割线斜率的极限。
所以导数的几何定义即为:
Limit of slopes of secant lines PQPQ as Q→PQ\to P(PP fixed). Th...
分类:
其他好文 时间:
2015-03-21 21:25:51
阅读次数:
300
感知机应该是机器学习里面最简单的模型了。读一遍文章也能理解作者想表达的意思。因为以前像梯度下降,多项式拟合,神经网络都在Andrew Ng的公开课上看过了。但是真正关于书中的公式却不怎么理解。一些简单的作者也没有推导。毕竟这是机器学习,不是微积分,或者线性代数,或者概率论。微积分,概率论,...
分类:
其他好文 时间:
2015-03-17 21:34:04
阅读次数:
296
最近在网易公开课上看斯坦福大学的《编程范式》,外国人讲课思路就是清晰,上了几节课,感觉难度确实比我们普通大学大很多,但是却很有趣,让人能边学边想。 范式编程,交换两个数,利用 void * void Swap (void * lhs,void * rhs,int size) { ...
分类:
编程语言 时间:
2015-03-17 10:15:40
阅读次数:
160
好文章推荐阅读,大家共同进步提高。机器学习优质公开课资料权威汇总http://www.shookr.com/tech/572-2015-02-03-06-31-09数据分析、数据挖掘、数据统计、OLAP 之间的差异是什么?http://www.shookr.com/opinions/573-ola....
分类:
其他好文 时间:
2015-03-16 23:02:12
阅读次数:
204