1 Vectorization 简述Vectorization 翻译过来就是向量化,各简单的理解就是实现矩阵计算。为什么MATLAB叫MATLAB?大概就是Matrix Lab,最根本的区别于其他通用语言的地方就是MATLAB可以用最直观的方式实现矩阵运算,MATLAB的变量都可以是矩阵。通过Vectorization,我们可以将代码变得极其简洁,虽然简洁带来的问题就是其他人看你代码就需要研究一番...
分类:
其他好文 时间:
2014-11-19 22:22:52
阅读次数:
370
Andrew Ng的UFLDL最近更新了,具体更新时间为9月di...
分类:
其他好文 时间:
2014-11-19 18:50:00
阅读次数:
218
本人还没有做过自然语言处理,但是基于Deep Learning 的关注,自然也了解了一些Word2vec的强大。
Word2vec 是google 在2013年提供的一款将词表征为实数值向量的高效工具。而Word2vec
输出的词向量可用于做NLP 相关的工作,比如聚类、找同义词、词性分析等。Word2vec 大受欢迎的一个原因是其高效性, Tomas Mikolov 在[1]...
分类:
其他好文 时间:
2014-11-13 16:47:26
阅读次数:
192
9.5、Convolutional Neural Networks卷积神经网络 卷积神经网络是人工神经网络的一种,已成为当前语音分析和图像识别领域的研究热点。它的权值共享网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减少了权值的数量。该优点在网络的输入是多维图像时表现的更为明显,使图像可...
分类:
其他好文 时间:
2014-11-06 10:50:42
阅读次数:
270
九、Deep Learning的常用模型或者方法9.1、AutoEncoder自动编码器 Deep Learning最简单的一种方法是利用人工神经网络的特点,人工神经网络(ANN)本身就是具有层次结构的系统,如果给定一个神经网络,我们假设其输出与输入是相同的,然后训练调整其参数,得到每一层中的权重。...
分类:
其他好文 时间:
2014-11-06 10:46:13
阅读次数:
394
上个博文我讲了一些CNN相关的论文,比较浅显都是入门知识,这节课来总结一些稀疏表示方面的文章。至于上个博文说到的要讲的sparse coding的知识,我将会放在Deep Learning的专题里面讲解。好了,闲话不多说,下面还是列出几篇我看过的sparse representation方面的论文....
分类:
其他好文 时间:
2014-11-06 10:40:01
阅读次数:
391
Caffe (Convolution Architecture For Feature Extraction)作为深度学习CNN一个非常火的框架,对于初学者来说,搭建Linux下的Caffe平台是学习深度学习关键的一步,其过程也比较繁琐,回想起当初折腾的那几天,遂总结一下Ubuntu14.04的配置...
分类:
系统相关 时间:
2014-11-06 00:30:49
阅读次数:
2511
Going Deeper with convolutions
本篇论文是针对ImageNet2014的比赛,论文中的方法是比赛的第一名,包括task1分类任务和task2检测任务。本文主要关注针对计算机视觉的高效深度神经网络结构,通过改进神经网络的结构达到不增加计算资源需求的前提下提高网络的深度,从而达到提高效果的目的。...
分类:
其他好文 时间:
2014-11-04 01:37:56
阅读次数:
348
Deep Learning Lab1
打算把...
分类:
其他好文 时间:
2014-11-03 14:40:46
阅读次数:
244