码迷,mamicode.com
首页 >  
搜索关键字:cnn    ( 1449个结果
转:目标检测算法总结
【深度学习】目标检测算法总结(R-CNN、Fast R-CNN、Faster R-CNN、FPN、YOLO、SSD、RetinaNet) 目标检测是很多计算机视觉任务的基础,不论我们需要实现图像与文字的交互还是需要识别精细类别,它都提供了可靠的信息。本文对目标检测进行了整体回顾,第一部分从RCNN开 ...
分类:编程语言   时间:2019-03-30 12:08:41    阅读次数:245
CNN网络架构演进:从LeNet到DenseNet
CNN网络架构演进:从LeNet到DenseNet 卷积神经网络可谓是现在深度学习领域中大红大紫的网络框架,尤其在计算机视觉领域更是一枝独秀。CNN从90年代的LeNet开始,21世纪初沉寂了10年,直到12年AlexNet开始又再焕发第二春,从ZF Net到VGG,GoogLeNet再到ResNe ...
分类:Web程序   时间:2019-03-29 14:37:50    阅读次数:203
CNN练手——手写体识别
```python # 卷积层的实现函数 def convolutional_layer(input, num_input_channels, filter_size, num_filters, use_pooling=True): # 前两个参数是过滤器的尺寸,第三个参数是输入的通道,第四个参数是... ...
分类:其他好文   时间:2019-03-29 00:56:51    阅读次数:320
CNN理解与实现
CNN理解与实现 组成部分 + Convolution Layer + Pool Layer: Max pooling layer Average pooling layer + Full Connected(FC) Layer 需要的函数 注意 + 参数$W$, $b$和数据$X$它们的维度是一样 ...
分类:其他好文   时间:2019-03-27 12:38:13    阅读次数:137
[论文理解]Focal Loss for Dense Object Detection(Retina Net)
Focal Loss for Dense Object Detection Intro 这又是一篇与何凯明大神有关的作品,文章主要解决了one stage网络识别率普遍低于two stage网络的问题,其指出其根本原因是样本类别不均衡导致,一针见血,通过改变传统的loss(CE)变为focal lo ...
分类:Web程序   时间:2019-03-26 21:19:53    阅读次数:275
CNN初探
卷积神经网络结构: 1、 数据输入层: 去均值:将平均值变为0 归一化:将不同的特征,取值范围变为一致的 PCA降维、白化 2、 卷积计算层: 每个神经元看做是一个过滤器(一个带权重的矩阵),过滤器对原数据进行卷积相关操作(内积),不同过滤器关注的特征不同 局部连接:过滤器提取局部特征,然后再与后面 ...
分类:其他好文   时间:2019-03-26 16:47:56    阅读次数:207
RNN的灵活性
传统的Feedforward和CNN只能做到向量到向量的 one-to-one mapping RNN可以做到序列到序列的映射 sequence-to-sequence mapping 因此,采用RNN处理序列数据具有很好的灵活性。 传统的NN 图像标注(一到多) 情感分析(多到一) 机器翻译(多到 ...
分类:其他好文   时间:2019-03-25 16:27:19    阅读次数:216
Faster R-CNN
1.R-CNN R-CNN网络架构图 R-CNN网络框架流程 1)原图像经过 selective search算法提取约2000个候选框 2)候选框缩放到同一大小,原因是上图的ConvNet需要输入图片大小一致 3)通过ConvNet提取特征,原文ConvNet使用的是Alexnet,Alexnet ...
分类:其他好文   时间:2019-03-25 10:24:46    阅读次数:195
keras训练cnn模型时loss为nan
keras训练cnn模型时loss为nan 1.首先记下来如何解决这个问题的:由于我代码中 model.compile(loss='categorical_crossentropy', optimizer='sgd', metrics=['accuracy']) 即损失函数用的是categorica ...
分类:其他好文   时间:2019-03-25 10:22:09    阅读次数:299
深度学习原理与框架-CNN在文本分类的应用 1.tf.nn.embedding_lookup(根据索引数据从数据中取出数据) 2.saver.restore(加载sess参数)
1. tf.nn.embedding_lookup(W, X) W的维度为[len(vocabulary_list), 128], X的维度为[?, 8],组合后的维度为[?, 8, 128] 代码说明一下:即根据每一行X中的一个数,从W中取出对应行的128个数据,比如X[1, 3]个数据是3062 ...
分类:其他好文   时间:2019-03-25 01:06:33    阅读次数:226
1449条   上一页 1 ... 37 38 39 40 41 ... 145 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!