区别: 几种朴素贝叶斯分类器的区别在于对于分布的假设,即假设满足的形式。 一、高斯NB 导入 假设特征的似然函数满足, 和 采用“最大似然估计” 二、Multinomial NB 导入 特征是离散值,通常用样本的概率去估计 为避免有的特征值缺省,一般对样本的概率做Laplace平滑:(a=1时) 三 ...
分类:
其他好文 时间:
2017-08-22 00:19:05
阅读次数:
731
Basis(基础): MSE(Mean Square Error 均方误差),LMS(LeastMean Square 最小均方),LSM(Least Square Methods 最小二乘法),MLE(MaximumLikelihood Estimation最大似然估计),QP(Quadratic ...
分类:
其他好文 时间:
2017-08-19 18:34:39
阅读次数:
191
SRILM的主要目标是支持语言模型的估计和评测。估计是从训练数据(训练集)中得到一个模型,包括最大似然估计及相应的平滑算法;而评测则是从测试集中计算其困惑度。其最基础和最核心的模块是n-gram模块,这也是最早实现的模块,包括两个工 具:ngram-count和ngram,相应的被用来估计语言模型和 ...
分类:
编程语言 时间:
2017-08-07 11:42:42
阅读次数:
3712
对于最小二乘法,当从模型总体随机抽取n组样本观测值后,最合理的参数估计量应该使得模型能最好地拟合样本数据,也就是估计值和观测值之差的平方和最小。而对于最大似然法,当从模型总体随机抽取n组样本观测值后,最合理的参数估计量应该使得从模型中抽取该n组样本观测值的概率最大。显然,这是从不同原理出发的两种参数 ...
分类:
其他好文 时间:
2017-07-28 21:00:21
阅读次数:
280
概述 通俗来讲,最大似然估计,就是利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值。 重要的假设是所有采样满足独立同分布。 求解模型参数过程 假如我们有一组连续变量的采样值(x1,x2,…,xn),我们知道这组数据服从正态分布,标准差已知。请问这个正态分布的期望值为多少时,产生这个已 ...
分类:
其他好文 时间:
2017-07-19 17:53:21
阅读次数:
128
模型已定,参数未知 最大似然估计提供了一种给定观察数据来评估模型参数的方法,假设我们要统计全国人口的身高,首先假设这个身高服从服从正态分布,但是该分布的均值与方差未知。我们没有人力与物力去统计全国每个人的身高,但是可以通过采样,获取部分人的身高,然后通过最大似然估计来获取上述假设中的正态分布的均值与 ...
分类:
其他好文 时间:
2017-06-02 22:55:56
阅读次数:
322
最大似然估计:现在已经拿到了很多个样本(你的数据集中所有因变量),这些样本值已经实现,最大似然估计就是去找到那个(组)参数估计值,使得前面已经实现的样本值发生概率最大。因为你手头上的样本已经实现了,其发生概率最大才符合逻辑。这时是求样本所有观测的联合概率最大化,是个连乘积,只要取对数,就变成了线性加 ...
分类:
其他好文 时间:
2017-06-01 10:16:10
阅读次数:
130
原文链接 最大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已定,参数未知”。简单而言,假设我们要统计全国人口的身高,首先假设这个身高服从服从正态分布,但是该分布的均值与方差未知。我们没有人力与物力去统计全国每个人的身高,但是可以通过采样,获取部分人的身高,然后通过最大似然估计来获取 ...
分类:
其他好文 时间:
2017-04-27 11:38:04
阅读次数:
243
再次声明,总结内容基本非原创,只是一个勤劳的搬运工,由于来源比较杂,只好一起感谢网上提供这些知识的人类们。 一、关于线性回归 线性回归比较简单,这里主要是对线性回归的一种理解,包括部分正则化的内容。 1.模型的概率解释 2.最大似然估计 即: 上面是线性回归最原始的最小平方损失函数,如果为了防止过拟 ...
分类:
其他好文 时间:
2017-04-12 15:05:34
阅读次数:
487
1. 最大似然估计法的思想 在已经得到试验结果的情况下,我们应该寻找使这个结果出现的可能性最大的那个θ作为真θ的估计。 2. 离散型随机变量 设X为离散型随机变量,其概率分布的形式为 ,则样本的概率分布为 ,在 固定时,上式表示取值的概率;当 固定时,它是 的函数,我们把它记为 并称为似然函数。 似 ...
分类:
其他好文 时间:
2017-03-25 22:41:29
阅读次数:
178