码迷,mamicode.com
首页 >  
搜索关键字:RNN    ( 513个结果
适用于深度学习的高性能系统架构综述
课程作业,正好自己也在学深度学习,正好有所帮助,做了深度学习的AI芯片调研,时间比较短,写的比较仓促,大家随便看看 近年来,深度学习技术,如卷积神经网络(CNN)、递归神经网络(RNN)等,成为计算机视觉等相关领域的研究热点之一,取得了一定的研究和应用成果。回顾人工智能发展史,早在上世纪 80 年代 ...
分类:其他好文   时间:2018-01-24 22:21:13    阅读次数:1521
树形结构在开发中的应用
阿里妹导读:以深度学习为代表的人工智能在图像、语音和NLP领域带来了突破性的进展,在信息检索和个性化领域近几年也有不少公开文献,比如wide& deep实现了深度模型和浅层模型的结合,dssm用于计算语义相关性,deepfm增加了特征组合的能力,deep CF用深度学习实现协同过滤,rnn reco ...
分类:其他好文   时间:2017-12-30 14:48:54    阅读次数:149
CNN 和RNN 中input 长度不一致问题
转自:https://www.jianshu.com/p/86d667ee3c62,感谢分享! pad_sequences & Masking layer 上面提到,文本数据也可以用CNN来处理。很多人有疑问,CNN的输入通常是一个(图像)矩阵,而文本中句子或者文章的长度不一,CNN如何将长短不一的 ...
分类:其他好文   时间:2017-12-30 12:12:42    阅读次数:498
2.2RNN
RNN RNN无法回忆起长久的记忆 LSTM (long short Term memory长短期记忆)解决梯度消失或弥散vanishing 和梯度爆炸explosion 0.9*n-->0 1.1*n >无穷大 在RNN中增加了Gate 案例 所以RNN无法回忆起长久的记忆。LSTM为了解决该问题 ...
分类:其他好文   时间:2017-12-27 15:22:30    阅读次数:315
TensorFlow batch normalize的使用
TensorFlow batch normalize的使用 batch normalize 经常与CNN搭配使用,据一些研究表面,在RNN层数不是很深的时候使用batch normalize是会用损害作用的。下面介绍下TensorFlow bath normalize的用法 直接把想normaliz ...
分类:其他好文   时间:2017-12-25 13:32:00    阅读次数:172
论文笔记-Sequence to Sequence Learning with Neural Networks
大体思想和RNN encoder-decoder是一样的,只是用来LSTM来实现。 paper提到三个important point: 1)encoder和decoder的LSTM是两个不同的模型 2)deep LSTM表现比shallow好,选用了4层的LSTM 3)实践中发现将输入句子rever ...
分类:Web程序   时间:2017-12-23 19:12:04    阅读次数:258
论文笔记-Personal Recommendation Using Deep Recurrent Neural Networks in NetEase
思路:利用RNN对用户浏览顺序建模,利用FNN模拟CF,两个网络联合学习 RNN网络结构: 输出层的state表示用户浏览的某一页面,可以看做是一个one-hot表示,state0到3是依次浏览的页面。因为RNN的输入个数是有限的,如果用户浏览的过多的页面,那么就会丢失最开始的那些页面,paper为 ...
分类:Web程序   时间:2017-12-23 19:08:10    阅读次数:448
论文笔记-Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation
针对机器翻译,提出 RNN encoder-decoder. encoder与decoder是两个RNN,它们放在一起进行参数学习,最大化条件似然函数。 网络结构: 注意输入语句与输出语句长度不一定相同。 在encoder端,t时刻的隐藏状态h表示为 t-1时刻的h 以及t时刻的输入x的函数,直到输 ...
分类:Web程序   时间:2017-12-23 19:07:12    阅读次数:285
论文笔记-Neural Machine Translation by Jointly Learning to Align and Translate
提出attention机制,用于机器翻译。 背景:基于RNN的机器翻译 基本思路是首先对语言x进行编码encoder,然后解码decoder为语言y。encoder和decoder可以看做两层RNN? 编码的隐藏层h和解码的隐藏层s RNN encoder-decoder : 1)对输入的sente ...
分类:系统相关   时间:2017-12-23 18:58:20    阅读次数:514
算法寒假实习面试经过之 滴滴(电话一面二面)
一面:1h 一面:1h 介绍比赛项目。 lr与xgb的区别? xgb 为什么不用归一化,onehot? xgb 与 gbdt的区别。 做这些比赛你们的优势在哪,既然全是相同的套路。 RCNN的原理, CNN的原理。LSTM的介绍,包括哪些门 。LSTM与RNN有哪些不同,解决了什么问题。 深度学习如 ...
分类:编程语言   时间:2017-12-20 03:44:06    阅读次数:369
513条   上一页 1 ... 30 31 32 33 34 ... 52 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!