码迷,mamicode.com
首页 > 其他好文 > 详细

读书笔记-《Training Products of Experts by Minimizing Contrastive Divergence》

时间:2014-09-15 14:19:08      阅读:270      评论:0      收藏:0      [点我收藏+]

标签:style   blog   http   使用   2014   div   问题   sp   log   

Training Products of Experts by Minimizing Contrastive Divergence(以下简称 PoE)是 DBN 和深度学习理论的 肇始之篇,最近在爬梳和学习 RBM 的相关知识时,发 现训练 RBM 时使用的对比散度算法在各种中英文资料 中都不甚详解,有些只是一带而过,不明就里,为什么 使用对比散度算法能够近似原来的目标函数,为什么一 步迭代就能得到较好的收敛结果?诸如此类的问题,一 直困扰于心。所以最终还是把这篇开山之作翻了出来, 仔细阅读后,发现很多关于算法的基本思路和出发点, Hinton 已经提及,只是我们没有太多在意,这里便是把 这篇论文重新阅读后的笔记整理出来,以供再来者借鉴。

bubuko.com,布布扣

bubuko.com,布布扣

bubuko.com,布布扣

bubuko.com,布布扣

bubuko.com,布布扣

bubuko.com,布布扣

bubuko.com,布布扣

bubuko.com,布布扣

bubuko.com,布布扣

bubuko.com,布布扣

读书笔记-《Training Products of Experts by Minimizing Contrastive Divergence》

标签:style   blog   http   使用   2014   div   问题   sp   log   

原文地址:http://www.cnblogs.com/newerly/p/3972626.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!