学习器模型中一般有两个参数:一类参数可以从数据中学习估计得到,还有一类参数无法从数据中估计,只能靠人的经验进行指定,后一类参数就叫超参数 比如,支持向量机里的C,Kernel,gama,朴素贝叶斯里的alpha等,在学习其模型的设计中,我们要搜索超参数空间为学习器模型找到最合理的超参数,可以通过以下 ...
分类:
其他好文 时间:
2017-06-14 13:16:46
阅读次数:
203
《机器学习实战》系列博客是博主阅读《机器学习实战》这本书的笔记,包括对当中算法的理解和算法的Python代码实现 另外博主这里有机器学习实战这本书的全部算法源码和算法所用到的源文件,有须要的留言 附:之所以成为朴素贝叶斯是由于其如果了各个特征之间是独立的 关于朴素贝叶斯分类算法的理解请參考:http ...
分类:
编程语言 时间:
2017-06-13 14:15:35
阅读次数:
149
本讲内容 1. Naive Bayes(朴素贝叶斯) 2.Event models(朴素贝叶斯的事件模型) 3.Neural network (神经网络) 4.Support vector machines(支持向量机) 1.朴素贝叶斯 上讲中的垃圾邮件问题有几个需要注意的地方: (1) 一个单词只 ...
分类:
其他好文 时间:
2017-06-07 20:58:28
阅读次数:
222
贝叶斯定理 贝叶斯定理是通过对观测值概率分布的主观判断(即先验概率)进行修正的定理,在概率论中具有重要地位。 先验概率分布(边缘概率)是指基于主观判断而非样本分布的概率分布,后验概率(条件概率)是根据样本分布和未知参数的先验概率分布求得的条件概率分布。 贝叶斯公式: 变形得: 其中 P(A)是A的先 ...
分类:
编程语言 时间:
2017-06-05 23:50:45
阅读次数:
268
def trainNB0(trainMatrix,trainCategory): numTrainDocs = len(trainMatrix) numWords = len(trainMatrix[0]) pAbusive = sum(trainCategory)/float(numTrainDo ...
本讲内容 1. Generative learning algorithms(生成学习算法) 2. GDA(高斯判别分析) 3. Naive Bayes(朴素贝叶斯) 4. Laplace Smoothing(拉普拉斯平滑) 1.生成学习算法与判别学习算法 判别学习算法:直接学习 或者学习一个假设 ...
分类:
编程语言 时间:
2017-06-03 16:17:16
阅读次数:
209
SparkMLib分类算法之朴素贝叶斯分类 (一)朴素贝叶斯分类理解 朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法。简单来说,朴素贝叶斯分类器假设样本每个特征与其他特征都不相关。举个例子,如果一种水果具有红,圆,直径大概4英寸等特征,该水果可以被判定为是苹果。尽管这些特征相互依赖或者有些 ...
分类:
编程语言 时间:
2017-05-20 00:07:17
阅读次数:
392
机器学习就是把无序的数据转换成实用的信息。 机器学习的主要任务就是分类,通过通过训练数据训练算法,终于能够将实际的数据分到合适的类别中 监督学习算法:预測目标变量的值 k-means算法。线性回归 朴素贝叶斯算法,局部加权线性回归 支持向量机。ridge回归 决策树。lasso最小回归系数预计 无监 ...
分类:
其他好文 时间:
2017-05-06 21:57:45
阅读次数:
167
一. 贝叶斯公式推导 朴素贝叶斯分类是一种十分简单的分类算法,叫它朴素是因为其思想基础的简单性:就文本分类而言,它认为词袋中的两两词之间的关系是相互独立的,即一个对象 的特征向量中每个维度都是相互独立的。例如,黄色是苹果和梨共有的属性,但苹果 和梨是相互独立的。这是朴素贝叶斯理论的思想基础。现在我们 ...
分类:
编程语言 时间:
2017-05-05 18:25:59
阅读次数:
595
朴素贝叶斯的基本思想:对于给出的待分类项,在给出待分类项的条件下求出各个类别出现的概率,哪个类别的概率大,该分类项就属于该类别 算法描述: (1) 设样本x=(a1,a2,...an) ai为特征的取值 (2) 类别集合C={c1,c3,...ck) 表示有k个类别 (3) 计算p(c1|x),p( ...
分类:
其他好文 时间:
2017-05-04 21:48:51
阅读次数:
170