本文是Andrew Ng在Coursera的机器学习课程的笔记。整体步骤确定网络模型初始化权重参数对于每个样例,执行以下步骤直到收敛计算模型输出:forward propagation计算代价函数:比较模型输出与真实输出的差距更新权重参数:back propagation确定网络模型神经网络模型由输...
分类:
其他好文 时间:
2014-07-22 23:36:27
阅读次数:
376
原文出处:http://blog.csdn.net/amblue/article/details/17023485 在NLP和机器学习中经常会遇到这两种显著不同的模型,在学习阶段(训练阶段)和评估阶段(测试阶段)都有不同的表现总结一下它们之间的区别,欢迎补充:1. 二者最本质的区别是建模对象不同 假...
分类:
其他好文 时间:
2014-07-22 22:43:13
阅读次数:
150
梯度下降、神经网络、BP神经网络,以及结合前述知识实际应用。文章走马观花把这几天学的知识滤了一遍,主要是有很多好的资料
分类:
其他好文 时间:
2014-07-22 22:40:35
阅读次数:
273
斯坦福ML公开课笔记15
我们在上一篇笔记中讲到了PCA(主成分分析)。PCA是一种直接的降维方法,通过求解特征值与特征向量,并选取特征值较大的一些特征向量来达到降维的效果。
本文继续PCA的话题,包括PCA的一个应用——LSI(Latent Semantic Indexing, 隐含语义索引)和PCA的一个实现——SVD(Singular Value Decomposition,奇异值分解),在SVD和LSI结束之后,关于PCA的内容就告一段落。视频的后半段开始讲无监督学习的一种——ICA(Indepen...
分类:
其他好文 时间:
2014-07-22 14:16:14
阅读次数:
314
继上篇的kmeans聚类算法,本文讲解了和Kmeans极为类似的kmediod聚类算法,分析了其异同及优缺点,并通过matlab代码实现了kmediod.代码中仍有bug.希望有大神能帮忙看看到底是收敛时间过长导致程序不终止还是代码本身的问题....
分类:
其他好文 时间:
2014-07-21 22:36:13
阅读次数:
580
决策树的优势就在于数据形式非常容易理解,而kNN的最大缺点就是无法给出数据的内在含义。
1:简单概念描述
决策树的类型有很多,有CART、ID3和C4.5等,其中CART是基于基尼不纯度(Gini)的,这里不做详解,而ID3和C4.5都是基于信息熵的,它们两个得到的结果都是一样的,本次定义主要针对ID3算法。下面我们介绍信息熵的定义。
事件ai发生的概率用p(ai...
分类:
其他好文 时间:
2014-07-21 22:21:08
阅读次数:
360
此文用matlab实现了k-means聚类算法,虽然代码仍然有bug,但是就结果来说还是很正确的.通读此文对kmeans聚类算法有了更清晰的认识....
分类:
其他好文 时间:
2014-07-21 16:47:54
阅读次数:
312
上一节最后讲到了建立一个extractor的方法,手工建立和机器学习等,这一节详细阐述手工建立pattern的方法。引用Jurafsky教授常说的话: let‘s look at the intuition. Jurafsky教授讲话总是微皱着眉头,感觉很较真...
分类:
其他好文 时间:
2014-07-21 13:30:48
阅读次数:
257
从今天开始学习python,学习的目的:国外的都是以python做编程入门,去英国前要把课补上今天买了一本机器学习实战,是用python写的,虽然大部分代码能够看懂,但是系统的学习还是很有必要知乎上的大牛很推崇python,一定有道理,学学也无妨在知乎上找了一些python入门的经验,这篇比较中意。...
分类:
编程语言 时间:
2014-07-21 09:31:57
阅读次数:
357
学习方式根据数据类型的不同,对一个问题的建模有不同的方式。在机器学习或者人工智能领域,人们首先会考虑算法的学习方式。在机器学习领域,有几种主要的学习方式。将算法按照学习方式分类是一个不错的想法,这样可以让人们在建模和算法选择的时候考虑能根据输入数据来选择最合适的算法来获得最好的结果。监督式学习:在监...
分类:
其他好文 时间:
2014-07-21 08:08:39
阅读次数:
327