码迷,mamicode.com
首页 >  
搜索关键字:caffe 深度学习    ( 4625个结果
caffe windows配置
windows+caffe+vs2013+cuda6.5配置记录 http://www.bubuko.com/infodetail-902302.htmlcaffe+windows7+vs2013配置 http://blog.csdn.net/tjusxh/article/details/48463...
分类:Windows程序   时间:2016-01-20 22:37:22    阅读次数:307
自然语言处理中的Attention Model:是什么及为什么
要是关注深度学习在自然语言处理方面的研究进展,我相信你一定听说过Attention Model(后文有时会简称AM模型)这个词。AM模型应该说是过去一年来NLP领域中的重要进展之一,在很多场景被证明有效。听起来AM很高大上,其实它的基本思想是相当直观简洁的。...
分类:编程语言   时间:2016-01-20 21:02:35    阅读次数:2789
深度学习框架Caffe的编译安装
深度学习框架caffe特点,富有表达性、快速、模块化。下面介绍caffe如何在Ubuntu上编译安装。1. 前提条件安装依赖的软件包:CUDA用来使用GPU模式计算.建议使用 7.0 以上最新的版本BLASvia ATLAS, MKL, or OpenBLAS.Boost>= 1.55proto.....
分类:其他好文   时间:2016-01-20 20:39:05    阅读次数:542
机器学习之深度学习---深度学习之我见
今天下午,闲来无事,遂百度翻看下最近关于模式识别,以及目标检测方面的最新进展,还有收获不少!------------------------------------author:pkf-----------------------------------------------time:2016.....
分类:其他好文   时间:2016-01-20 20:37:10    阅读次数:521
【深度学习&分布式】Parameter Server 详解
MXNet是李沐(李少帅)和陈天奇等各路英雄豪杰打造的开源深度学习框架(最近不能更火了),其中最吸引我的是它的分布式训练的特性;而提供支持其分布式训练特性的正是当年李少帅和 Alex Smola 等人开发的 parameter server. 本文从易用性、通信高效性、可扩展性等角度介绍 parameter server ....
分类:其他好文   时间:2016-01-20 17:28:58    阅读次数:246
深度学习与计算机视觉系列(5)_反向传播与它的直观理解
其实一开始要讲这部分内容,我是拒绝的,原因是我觉得有一种写高数课总结的感觉。而一般直观上理解反向传播算法就是求导的一个链式法则而已。但是偏偏理解这部分和其中的细节对于神经网络的设计和调整优化又是有用的...
分类:其他好文   时间:2016-01-16 19:32:27    阅读次数:524
C++ little errors , Big problem
Q1. compile caffe .cpp file , come out an error :d302@d302-MS-7816-04:~/wangxiao/spl-caffe-master$ make -j8NVCC src/caffe/layers/euclidean_loss_layer....
分类:编程语言   时间:2016-01-16 09:40:59    阅读次数:231
深度学习与计算机视觉系列(8)_神经网络训练与注意点
在前一节当中我们讨论了神经网络静态的部分:包括神经网络结构、神经元类型、数据部分、损失函数部分等。这个部分我们集中讲讲动态的部分,主要是训练的事情,集中在实际工程实践训练过程中要注意的一些点,如何找到最合适的参数。...
分类:其他好文   时间:2016-01-15 11:09:46    阅读次数:236
深度学习与计算机视觉系列(9)_串一串神经网络之动手实现小例子
前面8小节,算从神经网络的结构、简单原理、数据准备与处理、神经元选择、损失函数选择等方面把神经网络过了一遍。这个部分我们打算把知识点串一串,动手实现一个简单的2维平面神经网络分类器,去分割平面上的不同类别样本点。为了循序渐进,我们打算先实现一个简单的线性分类器,然后再拓展到非线性的2层神经网络。我们可以看到简单的实现,能够有分隔程度远高于线性分类器的效果。...
分类:其他好文   时间:2016-01-15 11:06:50    阅读次数:1906
深度学习与计算机视觉系列(9)_串一串神经网络之动手实现小例子
前面8小节,算从神经网络的结构、简单原理、数据准备与处理、神经元选择、损失函数选择等方面把神经网络过了一遍。这个部分我们打算把知识点串一串,动手实现一个简单的2维平面神经网络分类器,去分割平面上的不同类别样本点。为了循序渐进,我们打算先实现一个简单的线性分类器,然后再拓展到非线性的2层神经网络。我们可以看到简单的实现,能够有分隔程度远高于线性分类器的效果。...
分类:其他好文   时间:2016-01-15 01:13:52    阅读次数:227
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!