博士应该怎样读 ——从我自身的经验谈起 2016-09-16 上海交大 宫辰 博士应该怎样读 ——从我自身的经验谈起 宫 辰 (goodgongchen@sjtu.edu.cn) 上海交通大学电子信息与电气工程学院图像处理与模式识别研究所 关于如何读博士,如何成为一名优秀的博士,网上类似的帖子或文章 ...
分类:
其他好文 时间:
2016-11-28 08:21:44
阅读次数:
294
转自:http://blog.csdn.net/malefactor/article/details/51078135 CNN是目前自然语言处理中和RNN并驾齐驱的两种最常见的深度学习模型。图1展示了在NLP任务中使用CNN模型的典型网络结构。一般而言,输入的字或者词用Word Embedding的 ...
分类:
其他好文 时间:
2016-11-25 17:47:59
阅读次数:
265
众所周知,LSTM的一大优势就是其能够处理变长序列。而在使用keras搭建模型时,如果直接使用LSTM层作为网络输入的第一层,需要指定输入的大小。如果需要使用变长序列,那么,只需要在LSTM层前加一个Masking层,或者embedding层即可。 使用方法:首先将序列转换为定长序列,如,选取一个序 ...
分类:
其他好文 时间:
2016-11-22 14:59:39
阅读次数:
1655
最近在给自己的服务器节点添加脚本功能,考虑到 执行性能、开发效率、调试效率、可维护性、严谨性 五大要素,最终选用C#作为脚本语言,并使用mono作为中间层,使其具备跨平台特性,以备具有在Windows开发调试并在Linux部署的效果。这样就完全符合五大要素了。 开始研究嵌入mono的方法,结果并非我 ...
分类:
其他好文 时间:
2016-11-21 07:54:43
阅读次数:
152
归一化处理 数据降维 数据规约产生更小但保持数据完整性的新数据集。在规约后的数据集上进行数据分析和挖掘将更有效率。 机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。降维的本质是学习一个映射函数 f : x->y,其中x是原始数据点的表达,目前最多使用向量表 ...
分类:
其他好文 时间:
2016-11-13 19:37:12
阅读次数:
357
Deep Metric Learning via Lifted Structured Feature Embedding CVPR 2016 摘要:本文提出一种距离度量的方法,充分的发挥 training batches 的优势,by lifting the vector of pairwise d ...
分类:
其他好文 时间:
2016-09-29 21:51:14
阅读次数:
1622
收藏一些经典的源码,持续更新!!! 1.深度学习框架(Deep Learning Framework). A:Caffe (Convolutional Architecture for Fast Feature Embedding)Convolutional 由伯克利大学Yangqing Jia P... ...
分类:
其他好文 时间:
2016-08-12 11:42:31
阅读次数:
348
Mailing API Configuration Basic Usage Embedding Inline Attachments Mail & Local Development Working along with the classic Mailer Helper Configuration ...
如何产生好的词向量? 词向量、词嵌入(word vector,word embedding)也称分布式表示(distributed representation),想必任何一个做NLP的研究者都不陌生。如今词向量已经被广泛应用于各自NLP任务中,研究者们也提出了不少产生词向量的模型并开发成实用的工具 ...
分类:
其他好文 时间:
2016-06-26 11:38:24
阅读次数:
786
1 温习
1.1 关于caffe的名称:
caffe = convolutional architecture for fast feature embedding
1.2 caffe.proto
Protocol Buffers顾名思义这是一种协议接口,这是了解caffe功能之后,需要了解的第一件事情。有很多相关博客。简单看一下其结构:
package xx;#xx将作为...
分类:
Web程序 时间:
2016-06-21 07:15:28
阅读次数:
1274