码迷,mamicode.com
首页 >  
搜索关键字:卷积层    ( 271个结果
caffe之(二)pooling层
在caffe中,网络的结构由prototxt文件中给出,由一些列的Layer(层)组成,常用的层如:数据加载层、卷积操作层、pooling层、非线性变换层、内积运算层、归一化层、损失计算层等;本篇主要介绍pooling层 1. Pooling层总述 下面首先给出卷积层的结构设置的一个小例子(定义在.
分类:其他好文   时间:2016-03-04 01:51:13    阅读次数:201
caffe之(一)卷积层
在caffe中,网络的结构由prototxt文件中给出,由一些列的Layer(层)组成,常用的层如:数据加载层、卷积操作层、pooling层、非线性变换层、内积运算层、归一化层、损失计算层等;本篇主要介绍卷积层 1. 卷积层总述 下面首先给出卷积层的结构设置的一个小例子(定义在.prototxt文件
分类:其他好文   时间:2016-03-04 01:49:31    阅读次数:759
MXNet设计和实现简介
原文:https://github.com/dmlc/mxnet/issues/797神经网络本质上是一种语言,我们通过它来表达对应用问题的理解。例如我们用卷积层来表达空间相关性,RNN来表达时间连续性。根据问题的复杂性和信息如何从输入到输出一步步提取,我们将不同大小的层按一定原则连接起来。近年来随...
分类:Web程序   时间:2016-01-10 13:02:25    阅读次数:1904
Alex / OverFeat / VGG 中的卷积参数
研究需要,统计了一些经典CNN结构的卷积层参数。 Alexnet Layer Input Kernel Output Stride Pad 1 256 * 3 * 227 * 227 48 * 3 * 11 * 11 256 * 48 * 55 * 55 4 0 2 256 * 48 * 27 * 27 128 * 48 *...
分类:其他好文   时间:2015-08-20 20:58:02    阅读次数:372
卷积神经网络 模型分析
由于在看这类文章时专业名词较多,所以在正式开始前,我先介绍一些同义专业名词,各名词具体含义以及之间的关系在文中介绍。卷积层 = C层采样层 = 池化层(pooling层),S层平面 = 特征图(feature map),通道,map卷积核 = 权向量,滤波器神经元 = 特征,结点,单元,像素点,pa...
分类:其他好文   时间:2015-08-06 01:54:05    阅读次数:312
[caffe]深度学习之图像分类模型VGG解读
vgg和googlenet是2014年imagenet竞赛的双雄,这两类模型结构有一个共同特点是go deeper。跟googlenet不同的是,vgg继承了lenet以及alexnet的一些框架,尤其是跟alexnet框架非常像,vgg也是5个group的卷积、2层fc图像特征、一层fc分类特征,可以看做和alexnet一样总共8个part。根据前5个卷积group,每个group中的不同配置,vgg论文中给出了A~E这五种配置,卷积层数从8到16递增。从论文中可以看到从8到16随着卷积层的一步步加深,貌...
分类:其他好文   时间:2015-07-01 20:40:47    阅读次数:198
DeepLearnToolBox中CNN源码解析
DeepLearnToolbox是一个简单理解CNN过程的工具箱,可以在github下载。为了理解卷积神经网络的过程,我特此对CNN部分源码进行了注释。公式的计算可以由上一篇blog推导得出。          注意:代码中没有的subsampling进行设置参数,将subsampling层的参数w就设置为了0.25,而偏置参数b设置为0。卷积层计算过程为上一层所有feature map的卷积的...
分类:其他好文   时间:2015-06-21 02:05:40    阅读次数:848
【week8 in ricoh】 Learning CNN
week8:5.271.做CNN practical[1]里的example1,了解CNN模块中的每一个部分(1)卷积层的卷积过程,输入输出维度变化(2)ReLU(3)Pooling层(4)NormalizationReLUPoolingNormalization2.做CNN practical[1...
分类:其他好文   时间:2015-05-31 16:43:21    阅读次数:165
池化方法总结(Pooling)
在卷积神经网络中,我们经常会碰到池化操作,而池化层往往在卷积层后面,通过池化来降低卷积层输出的特征向量,同时改善结果(不易出现过拟合)。 为什么可以通过降低维度呢? 因为图像具有一种“静态性”的属性,这也就意味着在一个图像区域有用的特征极有可能在另一个区域同样适用。因此,为了描述大的图像,一个很自然的想法就是对不同位置的特征进行聚合统计,例如,人们可以计算图像一个区域上的某个特定特征的平均值...
分类:其他好文   时间:2015-01-06 00:56:15    阅读次数:339
CNN的学习笔记
1、卷积核的概念,卷积核的size,就是滑动窗口的大小,例如原始数据为28*28的手写数字,滑动窗口size为5*5,则卷积核的size为5*5。卷积核就是权重集合,就是5*5+1。1表示偏置项。卷积核就是输入层的25个点+1个偏置项,链接卷积层的一个点后的权重值集合W。2、feature map ...
分类:其他好文   时间:2014-11-19 21:46:59    阅读次数:265
271条   上一页 1 ... 25 26 27 28 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!