码迷,mamicode.com
首页 >  
搜索关键字:熵    ( 678个结果
FFmpeg的H.264解码器源代码简单分析:熵解码(Entropy Decoding)部分
本文分析FFmpeg的H.264解码器的熵解码(Entropy Decoding)部分的源代码。FFmpeg的H.264解码器调用decode_slice()函数完成了解码工作。这些解码工作可以大体上分为3个步骤:熵解码,宏块解码以及环路滤波。本文分析这3个步骤中的第1个步骤。...
分类:其他好文   时间:2015-04-18 17:43:54    阅读次数:322
FFmpeg的H.264解码器源代码简单分析:解码器主干部分
本文分析FFmpeg的H.264解码器的主干部分。“主干部分”是相对于“熵解码”、“宏块解码”、“环路滤波”这些细节部分而言的。它包含了H.264解码器直到decode_slice()前面的函数调用关系(decode_slice()后面就是H.264解码器的细节部分,主要包含了“熵解码”、“宏块解码”、“环路滤波”3个部分)。...
分类:其他好文   时间:2015-04-14 16:42:14    阅读次数:429
机器学习实战——决策树
from math import log #以决策为标准计算信息熵 def calcShannonEnt(dataSet): numEntries = len(dataSet) labelCounts = {} for featVec in dataSet: currentLabel = featVec[-1] if cu...
分类:其他好文   时间:2015-04-09 21:56:49    阅读次数:265
第六章 logistic回归与最大熵模型
1、logistic回归是统计学习中的经典分类方法。       最大熵模型:最大熵是概率模型学习的一个准则,将其推广到分类问题得到最大熵模型。      两者都是对数线性模型。 2、二项logstic分类模型:用于二类分布。      多项logstic分类模型:用于多类分布。 3、最大熵模型(maximum entropy model):是由最大熵原理推导实现。 ...
分类:其他好文   时间:2015-04-05 09:14:27    阅读次数:346
Report, 20150402, Formulas on Entropy, Part I
关于熵的一些基本公式与推导的一篇报告。
分类:其他好文   时间:2015-04-03 23:47:05    阅读次数:196
2015阿里实习线上笔试题-附加题1
随机数生成器计算机使用的随机数生成器往往是伪随机的,为了达到统计意义上的真随机数,可以需要引入系统 外的变量等作为随机种子(如UNIX系统中熵池)。假设有一天出现了上帝的投硬币函数: int G(); 由于这里用到的上帝硬币可能不均匀。但可以保证是G()可以x概率返回1,1-x的概率返回0,其中x为未知常数(且x不等于0或1)。请实现目标函数: int F(double p); 要求 F函数以...
分类:其他好文   时间:2015-04-02 22:36:30    阅读次数:209
mahout探索之旅——CART分类回归算法
CART算法原理与理解 CART算法的全称是分类回归树算法,分类即划分离散变量;回归划分连续变量。他与C4.5很相似,但是一个二元分类,采用的是类似于熵的GINI指数作为分类决策,形成决策树之后还要进行剪枝,我自己在实现整个算法的时候采用的是代价复杂度算法。 GINI指数 GINI指数主要是度量数据划分或训练数据集D的不纯度为主,系数值的属性作为测试属性,GINI值越小,表明样本的纯净度越高...
分类:编程语言   时间:2015-04-01 22:02:53    阅读次数:324
决策树模型(matlab)
第一个函数是计算熵的函数 function result=CEntropy(propertyList) result=0; totalLength=length(propertyList); itemList=unique(propertyList); pNum=length(itemList); for i=1:pNum itemLength=length(find(property...
分类:其他好文   时间:2015-04-01 09:39:24    阅读次数:315
ID3
ID3是数据挖掘分类中的一种(是一种if-then的模式),其中运用到熵的概念,表示随机变量不确定性的度量H(x)=-∑pi *log pi信息增益是指特征A对训练数据集D的信息增益g(D,A),定义为集合D的经验熵H(D)与特征A给定条件下D的经验条件熵H(D|A)之差g(D,A)=H(D)-H(...
分类:其他好文   时间:2015-03-19 23:25:45    阅读次数:155
交叉熵代价函数
本文是《Neural networks and deep learning》概览 中第三章的一部分,讲machine learning算法中用得很多的交叉熵代价函数。1.从方差代价函数说起代价函数经常用方差代价函数(即采用均方误差MSE),比如对于一个神经元(单输入单输出,sigmoid函数),定义其代价函数为: 其中y是我们期望的输出,a为神经元的实际输出【 a=σ(z), where z=wx+...
分类:其他好文   时间:2015-03-13 14:27:18    阅读次数:293
678条   上一页 1 ... 56 57 58 59 60 ... 68 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!