阅读他人的代码能够帮助你学习编程。类似的,研究他人开训练出的实例,有助于你构建自己的CNN。 1.classicla network 1.1 LeNet-5 n_H,n_W在减小,n_C在增加 一个或多个卷积层后边跟一个池化层 阅读论文:只需精读第二段 1.2 AlexNet 论文:任务被分到了两个 ...
分类:
其他好文 时间:
2019-09-03 09:59:22
阅读次数:
117
本周的主要工作是win10+TensorFlow环境下的FCN全卷积神经网络的实现 FCN对图像进行像素级的分类,从而解决了语义级别的图像分割问题。与经典的CNN在卷积层使用全连接层得到固定长度的特征向量进行分类不同,FCN可以接受任意尺寸的输入图像,采用反卷积层对最后一个卷基层的特征图(featu ...
分类:
其他好文 时间:
2019-08-25 18:27:25
阅读次数:
113
恢复内容开始 与R-CNN的不同: Fast R-CNN是端到端的,解决了R-CNN的速度慢、空间大的缺点。 训练: 使用5个最大池化层和5~13个不等的卷积层的三种网络进行预训练:CaffeNet,VGG_CNN_M_1024,VGG-16,使用之前要先做出如下改动: 对训练集中的图片,SS取出每 ...
分类:
其他好文 时间:
2019-08-25 16:10:33
阅读次数:
73
卷积神经网络 代码:https://github.com/TimVerion/cat 卷积层 卷积层:通过在原始图像上平移来提取特征,每一个特征就是一个特征映射 原理:基于人脑的图片识别过程,我们可以认为图像的空间联系也是局部的像素联系比较紧密,而较远的像素相关性比较弱,所以每个神经元没有必要对全局 ...
分类:
其他好文 时间:
2019-08-22 22:04:51
阅读次数:
143
面对一个图像分类问题,可以有以下步骤: 1.建立一个简单的CNN模型,一方面能够快速地run一个模型,以了解这个任务的难度 卷积层1:卷积核大小3*3,卷积核移动步长1,卷积核个数64,池化大小2*2,池化步长2,池化类型为最大池化,激活函数ReLU。 卷积层2:卷积核大小3*3,卷积核移动步长1, ...
分类:
其他好文 时间:
2019-08-22 13:29:52
阅读次数:
126
目录 卷积层的dropout 全连接层的dropout Dropout的反向传播 Dropout的反向传播举例 参考资料 在训练过程中,Dropout会让输出中的每个值以概率keep_prob变为原来的1/keep_prob倍,以概率1-keep_prob变为0。也就是在每一轮的训练中让一些神经元随 ...
分类:
其他好文 时间:
2019-08-20 10:47:55
阅读次数:
105
背景 之前热门的目标检测方法都是two stage的,即分为region proposal和classification两个阶段,本文是对one stage方法的初次探索。 方法 首先看一下模型的网络结构,输入的原图片,经过24个卷积层提取特征,全连接层输出一个7*7*30的tensor,这个ten ...
分类:
其他好文 时间:
2019-08-19 19:19:10
阅读次数:
68
CS231n note 5.1 CNN_history now: 略 5.2 CNN 上节课我们谈到了全连接层的概念: 对于全连接层而言,我们要做的就是在这些向量上进行操作。 例如: 但是至于卷积层,与前者截然不同的地方就是可以保持空间结构 例如下图: 一张32×32×3的图片,我们并非将它展成长向 ...
分类:
其他好文 时间:
2019-08-18 09:40:41
阅读次数:
87
卷积神经网络简单可视化 在本次练习中,我们将可视化卷积层 4 个过滤器的输出(即 feature maps)。 加载图像 定义并可视化过滤器(卷积核) Filter shape: (4, 4) Filter 1: [[ 1 1 1 1] [ 1 1 1 1] [ 1 1 1 1] [ 1 1 1 1 ...
分类:
其他好文 时间:
2019-08-17 00:30:44
阅读次数:
122
PyTorch对ResNet网络的实现解析 1.首先导入需要使用的包 2.定义一个3 3的卷积层 下面会重复使用到这个3 3卷积层,虽然只使用了几次... 这里为什么用深度而不用通道,是因为我觉得深度相比通道更有数量上感觉,其实都一样。 3.定义最重要的残差模块 这个是基础块,由两个叠加的3 3卷积 ...
分类:
Web程序 时间:
2019-07-30 21:41:18
阅读次数:
170