朴素贝叶斯算法是基于贝叶斯定理的算法,贝叶斯定理如下: \[P(Y|X) = \frac{P(X,Y)}{P(X)} = \frac{P(Y) \cdot P(X|Y)}{P(X)}\] 朴素贝叶斯是这样执行的,假设 $X$ 为数据的特征 其中每一维度均可看做一个随机变量,即 $X_1= x_1,X ...
分类:
其他好文 时间:
2016-07-01 16:03:08
阅读次数:
128
1引言蒙特卡洛积分通过生成符合特定分布的随机变量来近似计算积分值。例如:上面的式子可以理解成求函数f(x)f(x)的期望因此根据大数定理我们生成符合p(x)p(x)分布的N个随机变量然后用下式来近似计算函数的期望等效于上式积分值。但是如过分布函数p(x)过于复杂我们是很难生成符合..
分类:
其他好文 时间:
2016-06-28 13:17:09
阅读次数:
289
概率论中,所研究的随机变量是假定其分布是已知的,在此前提下研究它的性质、数字特征等。 在数理统计中,所研究的随机变量的分布是未知或不完全知道的,通过重复独立的试验得到许多观察值去推断随机变量的种种可能分布。 1、随机样本 总体:试验的全部可能的观察值。 =样本空间 个体:每一个可能观察值。 =样本点 ...
分类:
其他好文 时间:
2016-06-17 12:36:58
阅读次数:
228
概率论第三部分:二(多)维随机变量的性质计算 1.如何计算二维随机变量的联合分布函数? 思路:首先分类讨论:离散型:对分布律进行求和——连续型:求出概率密度函数,正确定限,积分。其中,正确定限是连续型求解中极其容易犯错的地方 例题:随机变量(x,y)服从d上的均匀分布,其中d为x轴、y轴及直线y=2 ...
分类:
其他好文 时间:
2016-06-15 18:59:34
阅读次数:
141
1、随机变量 我们不关心随机试验的具体结果或发生顺序,关系的是与之有关的数字。 随机变量是将随机试验的结果与数字联系起来的一种函数,而且它的取值有一定的概率。 随机变量用大写字母表示,实数用小写字母表示。 如:投掷三次硬币出现2次正面的概率。 随机试验A的结果为={正正反,正反正,反正正} 随机变量 ...
分类:
其他好文 时间:
2016-06-15 16:01:56
阅读次数:
168
极大似然估计(MLE)提供了一种 给定观察数据来评估模型参数的方法,MLE 的问题形式是这样的,给定来自随机变量 $X$ 的数据集合 $\left \{ x_1,x_2 ,..., x_N \right \}$ , $X$ 的概率密度函数 $f(x|\theta)$ ,其中 $\theta$ 是为概 ...
分类:
编程语言 时间:
2016-06-06 18:30:10
阅读次数:
613
如果在我们的分类问题中,输入特征xx是连续型随机变量,高斯判别模型(Gaussian Discriminant Analysis,GDA)就可以派上用场了。 以二分类问题为例进行说明,模型建立如下: 对应的概率分布形式如下: p(y)=?y(1??)1?y(1)(1)p(y)=?y(1??)1?y ...
分类:
其他好文 时间:
2016-05-22 20:07:02
阅读次数:
378
华电北风吹
日期:2016-05-07高斯混合模型是一个无监督学习算法,主要用思路是利用EM算法对混合高斯分布进行极大似然估计。一、高斯混合分布
对于有kk个高斯分布混合而成的混合高斯分布的概率密度函数有
p(x)=∑zp(x|z)p(z)(1)p(x)=\sum_z p(x|z)p(z) \tag{1}
对于随机变量zz有zz~Multinomial(?)Multinomial(\phi)...
分类:
其他好文 时间:
2016-05-13 03:40:48
阅读次数:
261
逻辑回归(Logistic regression)
逻辑回归是统计学习中的经典分类方法。其多用在二分类{0,1}问题上。
定义1:
设X是连续随机变量,X服从逻辑回归分布是指X具有下列分布函数与密度函数:
分布函数属于逻辑斯谛函数,其图形是一条S形曲线。
定义2:
二项逻辑斯谛回归模型是如下条件概率分布:
从上式可以看出,逻辑回归对线性回归经行了归一化...
分类:
编程语言 时间:
2016-05-12 15:23:00
阅读次数:
346
第一章 随机事件与概率
第二章 随机变量及其分布
第三章 多维随机变量及其分布
第四章 大数定律与中心极限定理
第五章 统计量及其分布
第六章 参数估计
第七章 假设检验
第八章 方差分析与回归分析
第一章 随机事件与概率
1.1随机事件及其运算
概率论与数理统计研究的对象是随机现象. 概率论是研究随机现象的模型(即概率分布),数理统计是研究随机现象的数据收集与处理...
分类:
其他好文 时间:
2016-05-07 07:46:55
阅读次数:
132