码迷,mamicode.com
首页 >  
搜索关键字:gibbs sampling    ( 212个结果
【转载】Direct3D纹理映射
原文:Direct3D纹理映射 创建纹理对象 10: ); 纹理过滤方式 ·Nearest-point sampling(最近点采样) ·Linear texture filtering(线性纹理过滤) ·Anisotropic texture filtering(各向异性纹理过滤) ·Textur ...
分类:其他好文   时间:2016-06-02 23:28:16    阅读次数:212
随机采样和随机模拟:吉布斯采样Gibbs Sampling的具体实现
http://blog.csdn.net/pipisorry/article/details/51525308 吉布斯采样的实现问题 本文主要说明如何通过吉布斯采样进行文档分类(聚类),当然更复杂的实现可以看看吉布斯采样是如何采样LDA主题分布的[主题模型TopicModel:隐含狄利克雷分布LDA ]。 关于吉布斯采样的介绍文章都停止在吉布斯采样的详细描述上,如随机采样和随机...
分类:其他好文   时间:2016-05-30 14:50:50    阅读次数:277
机器人学 —— 轨迹规划(Sampling Method)
上一篇提到,机器人轨迹规划中我们可以在 Configuration Space 中运行A* 或者 DJ 算法。无论A* 还是DJ 算法,都必须针对邻域进行搜索,如果2自由度则有4邻域,2自由度则有8邻域。如果是工业上常用的6自由度机器人,那么就有2^6邻域。。。。。。显然,对于轨迹规划这种串行算法而 ...
分类:其他好文   时间:2016-05-28 15:39:33    阅读次数:289
蒙特卡洛采样之拒绝采样(Reject Sampling)
蒙特卡洛(Monte Carlo)方法以概率统计理论为基础的数值计算方法,在处理一些复杂的问题时成效显著。基于蒙特卡洛思想的采样方法在机器学习中占有非常重要的位置。像Reject Sampling, Importance Sampling,以及MCMC等等都是机器学习中非常重要,但又很不容易理解和掌握的方法,本文就从Inverse CDF法开始介绍蒙特卡洛采样法中非常重要的拒绝采样和ARS方法。...
分类:其他好文   时间:2016-05-18 19:03:42    阅读次数:2681
随机采样和随机模拟:吉布斯采样Gibbs Sampling
http://blog.csdn.net/pipisorry/article/details/51373090 马氏链收敛定理 马氏链定理: 如果一个非周期马氏链具有转移概率矩阵P,且它的任何两个状态是连通的,那么limn→∞Pnij 存在且与i无关,记limn→∞Pnij=π(j), 我们有 limn→∞Pn=???????π(1)π(1)?π(1)?π(2)π(2)?...
分类:其他好文   时间:2016-05-12 01:45:03    阅读次数:333
深度学习之二:CNN推导
前面看过了CNN的基本结构,经典的模式如下图:   上图经典的CNN模型主要可以概括为三个部分: convolution层:convolution是将原来的输入向量映射成多个feature map,每个feature map的权重和偏移量都是一样的 sub-sampling层:sub-sampling 层将feature map进一步缩小,可以选择down-...
分类:其他好文   时间:2016-05-07 11:04:45    阅读次数:275
Voreen(三) 光线投射参数介绍
本篇介绍光线投射的第二个个制Pass,光线合成的参数,对应于第一篇总的流程介绍中的Processor SingleVolumeRaycaster.可设置的参数如下: 1,Sampling Rate 采样率 采样率越大,所需要的绘制时间越久,一般来说图像质量也高。 2,Use Interpolatio ...
分类:其他好文   时间:2016-04-27 20:44:02    阅读次数:282
A Quick Overview of MSAA
A Quick Overview of MSAA 原文地址:https://mynameismjp.wordpress.com/2012/10/24/msaa-overview/ Previous article in the series: Applying Sampling Theory to Real-Time Graphics MSAA can be a ...
分类:其他好文   时间:2016-04-21 01:43:44    阅读次数:389
xxxxxx(1): LDA回顾以及变分EM
Latent Dirichlet Allocation (LDA)是一个主题模型,能够对文本进行建模,得到文档的主题分布。常用的模型参数估计方法有Gibbs Sampling和Variational Inference,网上有非常多关于LDA的介绍,最为经典的例如Rickjin的《LDA数学八卦》。本文旨在推导变分EM的全部过程。 转载请注明出处:http://blog.csdn.net/u0114...
分类:其他好文   时间:2016-04-16 19:06:58    阅读次数:332
斯坦福公开课:Statistical Learning中做错的选择题
4.4 R1 In which of the following problems is Case/Control Sampling LEAST likely to make a positive impact? A. Predicting a shopper's gender based on t ...
分类:其他好文   时间:2016-04-09 07:02:33    阅读次数:188
212条   上一页 1 ... 11 12 13 14 15 ... 22 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!