cnn发展史 这是imageNet比赛的历史成绩 可以看到准确率越来越高,网络越来越深。 加深网络比加宽网络有效的多,这已是公认的结论。 cnn结构演化图 AlexNet 诞生于2012年,因为当时用了两个GPU(硬件设备差),所以结构图是2组并行 网络结构总共8层,5个卷积层,3个全连接层,最后输 ...
分类:
其他好文 时间:
2019-03-31 11:06:57
阅读次数:
214
```python
# 卷积层的实现函数 def convolutional_layer(input, num_input_channels, filter_size, num_filters, use_pooling=True): # 前两个参数是过滤器的尺寸,第三个参数是输入的通道,第四个参数是... ...
分类:
其他好文 时间:
2019-03-29 00:56:51
阅读次数:
320
卷积层得参数: in * kernelw * kernel *c: 可以理解为全连接,我们可以把一个饼状图当做一个节点, 如果把一个饼,也就是一个kernel*kernel(例:2*2)当做一个节点,那么这个参数层也就是 in * 1 * out 那么这个所谓的in * 1 *out 不就是全连接里 ...
分类:
其他好文 时间:
2019-03-21 01:22:44
阅读次数:
209
1、R-FCN结构 适应全卷积化CNN结构,提出全卷积化设计 共享ResNet的所有卷积层 引入变换敏感性(Translation variance) 1、位置敏感分值图(Position-sensitive score maps) 特殊设计的卷积层 Grid位置信息+类别分值 2、位置敏感池化(P ...
分类:
其他好文 时间:
2019-03-07 10:24:39
阅读次数:
251
LeNet 1998年,LeCun提出了第一个真正的卷积神经网络,也是整个神经网络的开山之作,称为LeNet,现在主要指的是LeNet5或LeNet-5,如图1.1所示。它的主要特征是将卷积层和下采样层相结合作为网络的基本机构,如果不计输入层,该模型共7层,包括2个卷积层,2个下采样层,3个全连接层 ...
分类:
Web程序 时间:
2019-03-06 00:32:20
阅读次数:
616
在学习RNN的时候,经常会用CNN来类比,过程中我发现自己对CNN有些地方理解的还不是很清楚。 疑惑1:CNN卷积层的神经元是什么样的? CNN的卷积层包括各种概念,各种计算,但是我忽然发现,基本没人提到卷积层的神经元,而且在tensorflow编程中,也无需设置卷积层的神经元,这使得我们更加忽略了 ...
分类:
其他好文 时间:
2019-02-26 21:07:16
阅读次数:
207
相比于MLP(多层感知器)的神经网络,CNN(卷积神经网络)有卷积层和池化层。 在构建MNIST字符集的识别训练过程中,卷积神经网络采用了: 输入层 卷积层1 池化层1 卷积层2 池化层2 平坦层 隐层层 输出层 输入层输入二维的图像,28X28的一个矩阵。 在卷积层1,将输入层的一个矩阵图像,采用 ...
分类:
其他好文 时间:
2019-02-21 17:28:42
阅读次数:
180
1. 实现跨通道的交互和信息整合 对于某个卷积层,无论输入图像有多少个通道,输出图像通道数总是等于卷积核数量! 对多通道图像做1x1卷积,其实就是将输入图像于每个通道乘以卷积系数后加在一起,即相当于把原图像中本来各个独立的通道“联通”在了一起。 2. 进行卷积核通道数的降维和升维 进行降维和升维引起 ...
分类:
其他好文 时间:
2019-02-04 15:23:09
阅读次数:
231
参考黄文坚《TensorFlow实战》一书,完成AlexNet的整体实现并展望其训练和预测过程。 后续形成实现卷积神经网络构建、训练、测试的代码架构,会将Alexnet实现结构重新组织完整和优化。 ...
分类:
Web程序 时间:
2019-01-28 01:22:44
阅读次数:
232
Receptive Field Block Net for Accurate and Fast Object Detection 作者:Songtao Liu, Di Huang*, and Yunhong Wang Beijing Advanced Innovation Center for Bi ...
分类:
Web程序 时间:
2019-01-18 10:53:53
阅读次数:
1946