这是一个最大熵的简明Java实现,提供训练与预测接口。训练采用GIS训练算法,附带示例训练集。本文旨在介绍最大熵的原理、分类和实现,不涉及公式推导或其他训练算法,请放心食用。最大熵理论简介最大熵属于辨识模型,能够满足所有已知的约束, 对未知的信息不做任何过分的假设。什么叫已知的约束?本文不会使用晦涩...
分类:
编程语言 时间:
2014-11-23 17:12:39
阅读次数:
208
变换系数量化后,在低频和直流区域有少量较大的值,高频区域有少量不大的值,系数大部分为零,为了更有效的编码,通常根据该统计特性采用熵编码来进一步压缩码率。
熵编码之前,要进行锯齿形扫描和游程编码。
锯齿形扫描
以4x4块为例,量化后系数按下图所示的顺序进行锯齿形扫描,并排列成一个串行数据序列。
游程编码
在变换域,量化后系数用三个量表...
分类:
其他好文 时间:
2014-11-17 17:56:35
阅读次数:
274
近期在看一些熵相关的东西,为了了解一下互信息相关的东西,查阅了一些资料,有一个课件自己感觉写的不错,可是下载不下来,我就对它们进行了截图,希望对大家有帮助。这个课件中讲的内容比較基础,可是对于非通信、信息类的同学来说还是非常有帮助的,并且不仅通俗易懂,并且证明过程详尽,是不可多得的好材料。其重要包....
分类:
其他好文 时间:
2014-11-09 22:02:30
阅读次数:
160
信息熵(Entropy)究竟是用来衡量什么的? ...
分类:
其他好文 时间:
2014-11-07 16:35:31
阅读次数:
296
振铃效应(Ringingeffect)是影响复原图像质量的众多因素之一,其典型表现是在图像灰度剧烈变化的邻域出现类吉布斯(Gibbs)分布--(满足给定约束条件且熵最大的分布)的振荡。在图像盲复原中,振铃效应是一个不可忽视的问题,其严重降低了复原图像的质量,并且使得难于对复原图像进行后续处理。
振铃效应是由于在图像复原中选取了不适当的图像模型造成的;在图像盲复原中如果点扩散函数选择不准确也是...
分类:
其他好文 时间:
2014-11-04 17:31:43
阅读次数:
135
信息熵(Entropy)究竟是用来衡量什么的? ...
分类:
其他好文 时间:
2014-10-30 22:10:27
阅读次数:
245
近期在看一些熵相关的东西,为了了解一下互信息相关的东西,查阅了一些资料,有一个课件自己感觉写的不错,可是下载不下来,我就对它们进行了截图,希望对大家有帮助。这个课件中讲的内容比較基础,可是对于非通信、信息类的同学来说还是非常有帮助的,并且不仅通俗易懂,并且证明过程详尽,是不可多得的好材料。其重要包....
分类:
其他好文 时间:
2014-10-28 17:16:04
阅读次数:
169
前导知识: 1、证明: -lnx ≥1-x , x>0 证如下: 原题可化为f(x)=-lnx+x-1≥0 对f(x)求一阶导 f'(x) = -1/x +1 对f(x)求二阶导 f''(x) = 1/x2>0 二阶导大于0,f(x...
分类:
其他好文 时间:
2014-10-27 16:56:34
阅读次数:
152
1.信息熵 我们用一个生动的例子来说明这个概念:刚好这几天举行世界杯,我们都会猜谁会获得冠军。假设有32支球队,编号从1-32。然后问:“冠军是在1-16中吗?”,不是的话就是在6-32中,一次类推。我们最多需要猜测5次就能猜出谁是冠军(log32)。但事实上,我们可能不需要5次就能猜出来,因为像....
分类:
其他好文 时间:
2014-10-20 00:35:22
阅读次数:
253
指的是多种成分均匀分布的情况,如果成分分布越均匀,则熵越高,相反则熵越低物理学比如某个物体由多个事物组成,如果各事物所占质量比重均匀,则质量熵就高概率学比如掷色子有6种结果,如果各结果的概率是一样的,则概率熵就高自然语言比如一个term和多个term都有搭配在一起出现的记录,如果各term出现的次数...
分类:
其他好文 时间:
2014-10-19 14:17:12
阅读次数:
185