利用GPU和Caffe训练神经网络摘要:本文为利用GPU和Caffe训练神经网络的实战教程,介绍了根据Kaggle的“奥托集团产品分类挑战赛”的数据进行训练一种多层前馈网络模型的方法,如何将模型应用于新数据,以及如何将网络图和训练权值可视化。【编者按】本文为利用GPU和Caffe训练神经网络的实战教...
分类:
其他好文 时间:
2015-06-15 20:20:44
阅读次数:
176
时间:这个报道是大概2015年2月的文章:Facebook AI Director Yann LeCun on His Quest to Unleash Deep Learning and Make Machines Smarte,然后翻阅在CCF上的。知识点:1、其实之前一直不知道这几个大神这个叫...
分类:
其他好文 时间:
2015-06-15 12:36:58
阅读次数:
304
通过 训练针对不同特征点的专项网络 来完全使用训练集。针对多个模型训练时间过长,介绍了一种通过提前训练的权重来加速网络训练的技巧。
这是教程的最后一部分。...
分类:
Web程序 时间:
2015-06-14 18:33:10
阅读次数:
515
稀疏编码(SparseCoding)
sparse coding也是deep learning中一个重要的分支,同样能够提取出数据集很好的特征(稀疏的)。选择使用具有稀疏性的分量来表示我们的输入数据是有原因的,因为绝大多数的感官数据,比如自然图像,可以被表示成少量基本元素的叠加,在图像中这些基本元素可以是面或者线。
稀疏编码算法的目的就是找到一组基向量
使得我们能将输入向量x表示成这些基向量...
分类:
其他好文 时间:
2015-06-14 10:59:51
阅读次数:
236
我学习自然语言是从Christopher D.Manning的统计自然语言处理基础这本书开始的,很多文本分析也是应用统计方法,或者机器学习的方法,而近年来深度学习逐渐渗入各个领域,其在自然语言处理领域中也取得了令人惊叹的效果,这成功的引起了我的重视,决定学习一下。何其所幸,让我找到了斯坦福大学深度学...
分类:
编程语言 时间:
2015-06-12 19:01:35
阅读次数:
279
第二讲:简单的词向量表示:word2vec,Glove(Simple Word Vector representations: word2vec, GloVe)转载请注明出处及保留链接“我爱自然语言处理”:http://www.52nlp.cn本文链接地址:斯坦福大学深度学习与自然语言处理第二讲:词...
分类:
编程语言 时间:
2015-06-12 18:55:13
阅读次数:
685
这两周在跑一个模型,我真的是被折腾的要崩溃了。最后原因就是数据类型的问题,你说是不是应该管小黑屋啊。skimage.io.imread得到的是uint8的数据,而caffe.io.load_image得到的是0-1之间的小数。img=skimage.io.imread(img_path), uint...
分类:
其他好文 时间:
2015-06-12 14:37:01
阅读次数:
1996
此次主要由自我学习过度到深度学习,简单记录如下:
(1)深度学习比浅层网络学习对特征具有更优异的表达能力和紧密简洁的表达了比浅层网络大的多的函数集合。
(2)将传统的浅层神经网络进行扩展会存在数据获取、局部最值和梯度弥散的缺点。
(3)栈式自编码神经网络是由多层稀疏自编码器构成的神经网络(最后一层采用的softmax回归或者logistic回归分类),采用逐层贪婪的训练方法得到初始的参数,这...
分类:
其他好文 时间:
2015-06-11 14:41:24
阅读次数:
594
有感于最近接触到的一些关于深度学习的知识,遂打算找个东西来加深理解。首选的就是以前有过接触,且火爆程度非同一般的word2vec。严格来说,word2vec的三层模型还不能算是完整意义上的深度学习,本人确实也是学术能力有限,就以此为例子,打算更全面的了解一下这个工具。在此期间,参考了[1][2].....
分类:
其他好文 时间:
2015-06-10 22:23:39
阅读次数:
667
1.python import?os,inspect,socket,time,pymysql
num?=?0
class?Mysql:
????def?__init__(self,host,user,password,db):
????????self.cnn?=?pymysql.connect(host=host,user=user,?passwd=...
分类:
其他好文 时间:
2015-06-10 15:59:44
阅读次数:
190