来源:ICML 2015 Deep Learning Workshop作者:Google DeepMind创新点:构建第一个用于深度增强学习的大规模分布式结构该结构由四部分组成:
并行的行动器:用于产生新的行为
并行的学习器:用于从存储的经验中训练
分布式的神经网络:用于表示value function或者policy
分布式的经验存储
实验结果:将DQN应用在该体系结构上,训练的水平在49个游戏中...
分类:
其他好文 时间:
2016-03-18 09:36:04
阅读次数:
263
js有一个东西叫做GC(garbage collection )垃圾回收机制;js中有两种类型:js基本数据类型,js引用类型; 当一个函数[对象]--引用类型被引用后,过后,出了它的功能之后,gc会将其马上回收,以免占用.仅且仅有引用类型会 产生闭包.如果一个函数的应用结束了,心里想:我总算可以离
分类:
Web程序 时间:
2016-03-17 16:12:04
阅读次数:
144
A linked list is given such that each node contains an additional random pointer which could point to any node in the list or null. Return a deep copy
分类:
其他好文 时间:
2016-03-16 14:03:12
阅读次数:
161
本系统是基于CVPR2015的论文《Deep Learning of Binary Hash Codes for Fast Image Retrieval》实现的海量数据下的基于内容图片检索系统,250w图片下,对于给定图片,检索top 1000相似时间约为1s,其基本背景和原理会在下文提到。...
分类:
其他好文 时间:
2016-03-16 12:32:32
阅读次数:
718
1, 2014年的短文,今日看来无趣; link = here 2, 关于ultra-deep network,a newsletter to KaiMing He's 152 layers ResNet on ImageNet LINK = here 之前理解就是在imagenet上的分
分类:
Web程序 时间:
2016-03-12 22:49:20
阅读次数:
257
本文是《Neural networks and deep learning》概览 中第三章的一部分。讲机器学习/深度学习算法中经常使用的正则化方法。(本文会不断补充) 正则化方法:防止过拟合,提高泛化能力 在训练数据不够多时,或者overtraining时,经常会导致overfitting(过拟合)
分类:
其他好文 时间:
2016-03-12 14:48:24
阅读次数:
1173
Deepmind 公司在 Nature 杂志发表论文 Mastering the game of Go with deep neural networks and tree search,介绍了 AlphaGo 程序的细节。本文是对这篇论文的阅读笔记。AlphaGo 神经网络构成AlphaGo 总体上由两个神经网络构成,以下我把它们简单称为「两个大脑」,这并非原文中...
分类:
编程语言 时间:
2016-03-12 11:55:09
阅读次数:
236
根据知乎的一些大牛的回答总结出的deep learning入门学习的一些material: BE NOTED THAT SOME VIDEOS ARE ON YOUTUBE! I BELIEVE THAT YOU KNOW HOW TO ACESS THEM. 1. Andrew Ng的机器学习前四
分类:
其他好文 时间:
2016-03-12 00:02:44
阅读次数:
302
原文:http://tech.meituan.com/deep-understanding-of-ffm-principles-and-practices.html 深入理解FFM原理与实践 del2z, 大龙 ·2016-03-03 09:00 FM和FFM模型是最近几年提出的模型,凭借其在数据量
分类:
其他好文 时间:
2016-03-03 14:45:29
阅读次数:
307
1.为什么要在卷积网络中加入pooling(池化) 如果只利用卷积操作来减少feature map的大小,会失去很多信息。所以想到一种方法,减小卷积时的stride,留下大部分信息,通过池化来减小feature map的大小。 池化的优点: 1.池化操作不会增加parameters 2.实验结果表明
分类:
其他好文 时间:
2016-03-03 14:27:41
阅读次数:
127