最近重新看了一下概率论,感觉很多东西都遗忘了,还会陷入各种误区,赶紧的纠正回来。概率论这块,主要内容包括:事件、条件概率、随机变量、随机变量的分布函数、概率密度、联合分布、期望、方差、协方差。我自己的误区总结:1.事件和随机变量首先要明确样本空间是所有可能发生的事件的集合,它由全部基本事件组成。而事...
分类:
其他好文 时间:
2015-07-18 22:31:13
阅读次数:
231
13)过度乐观倾向“一个人想要什么,就会相信什么。”,人类在进化过程中的生存是非常辛苦的,因此具有乐观倾向的成员更容易度过难关。因为乐观的成员在面对困难的时候,更愿意积极的想办法解决,这种长期的进化选择就造就了人类的乐观倾向。而过度乐观倾向我觉得是人类的经验主义(思维惯性)和乐观倾向共同造成的。有的激将手法正是利用人类的这种过度乐观的倾向。解决愚蠢的乐观主义方法:通过学习,习惯性的应用概率论;14...
分类:
其他好文 时间:
2015-07-12 00:20:08
阅读次数:
106
写完这题赶紧开新题...话说这题让我重新翻了概率论课本,果然突击完了接着还给老师了,毫无卵用。很多人拿这位大神的题解作引,在这我也分享给大家~对于其中的公式在这里做一点简要的说明。因为自己也是理解了一会儿才明白的。TIPs:1、设d[i]为答对第i道题后拥有奖金的期望值。2、对于第i+1道题,我们可...
分类:
其他好文 时间:
2015-07-11 21:30:48
阅读次数:
207
Gamma 函数Time Limit:1000MSMemory Limit:65536KBTotal Submit:237Accepted:138DescriptionPollux最近在复习概率论与数理统计,他发现里面有很多有意思的积分,今天Pollux碰到了一个Gamma函数,定义如下:Input...
分类:
其他好文 时间:
2015-07-09 17:32:56
阅读次数:
148
机器学习入门资源--汇总基本概念机器学习机器学习是近20多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习...
分类:
其他好文 时间:
2015-07-06 23:19:23
阅读次数:
189
随着Hadoop等大数据的出现和技术的发展,机器学习越来越多地进入人们的视线。其实早Hadoop之前,机器学习和数据挖掘已经存在,作为一个单独的学科,为什么hadoop之后出现,机器学习是如此引人注目了?因是hadoop的出现使非常多人拥有了处理海量数据的技术支撑。进而发现数据的重要性,而要...
分类:
其他好文 时间:
2015-07-05 15:02:45
阅读次数:
105
贝叶斯定理(英语:Bayes’ theorem)是概率论中的一个定理,它跟随机变量的条件概率以及边缘概率分布有关。在有些关于概率的解说中,贝叶斯定理(贝叶斯更新)能够告知我们如何利用新证据修改已有的看法。这个名称来自于托马斯?贝叶斯。
通常,事件A在事件B(发生)的条件下的概率,与事件B在事件A的条件下的概率是不一样的;然而,这两者是有确定的关系,贝叶斯定理就是这种关系的陈述。贝叶斯公式的用途...
分类:
其他好文 时间:
2015-07-02 22:40:24
阅读次数:
168
本文是网上一些文章的整理总结,原文请戳文末。
贝叶斯概率和统计概率相对,它从确定的分布中观测到的频率或者在样本空间中的比例来导出概率。采用统计概率的统计和概率的理论由R.A. Fisher, Egon Pearson和Jerzy Neyman在20世纪上半叶发展起来。A. N. Kolmogorov也采用频率概率来通过勒贝格积分为测度论中的概率奠定数学基础(《概率论基础》(1933年))。Sa...
分类:
其他好文 时间:
2015-07-02 22:37:12
阅读次数:
270
logistic 回归1.问题:在上面讨论回归问题时,讨论的结果都是连续类型,但如果要求做分类呢?即讨论结果为离散型的值。2.解答:
假设:
其中:
g(z)g(z)的图形如下:
由此可知:当hθ(x)h_\theta(x)<0.5时我们可以认为为0,反之为1,这样就变成离散型的数据了。
推导迭代式:利用概率论进行推导,找出样本服从的分布类型,利用最大似然法求出相应的θ\theta因此:...
分类:
其他好文 时间:
2015-06-21 09:24:34
阅读次数:
137