码迷,mamicode.com
首页 >  
搜索关键字:神经网络    ( 3907个结果
循环神经网络层
目录RecapSentiment AnalysisProposalS1.Weight sharingNaive versionWeight shareS2.Consistent memoryUnfolded modelFormulationOverall DiagramOne more thingH ...
分类:其他好文   时间:2020-12-17 12:25:55    阅读次数:2
特征可视化技术(CAM) - 4 - Score-CAM - 论文学习
https://github.com/haofanwang/Score-CAM Score-CAM: Score-Weighted Visual Explanations for Convolutional Neural Networks Abstract 近年来,卷积神经网络的内部机制以及网络做出 ...
分类:其他好文   时间:2020-12-17 12:02:29    阅读次数:2
基于tensorflow的手写数字识别代码
基于tensorflow的手写数字识别代码 from keras.utils import to_categorical from keras import models, layers, regularizers from keras.optimizers import RMSprop from ...
分类:其他好文   时间:2020-12-16 11:52:08    阅读次数:4
神经网络分类知识蒸馏
参考链接: 知识蒸馏是什么?一份入门随笔 https://zhuanlan.zhihu.com/p/90049906 [论文阅读]知识蒸馏(Distilling the Knowledge in a Neural Network) https://blog.csdn.net/ZY_miao/arti ...
分类:其他好文   时间:2020-12-14 13:34:23    阅读次数:4
tensorflow2.0——ResNet实现
一、ResNet结构 ResNet神经网络主要用的是跳远连接的方式来解决深层神经网络退化的问题,在跳远连接的后需要对输入与激活前的值进行相加,激活前的值y可能与输入值的shape相同,也可能不相同,所以有ResNet有两种方式,当shape不相同时,用1*1的卷积操作来处理,一般来说1*1的卷积对神 ...
分类:Web程序   时间:2020-12-14 13:32:55    阅读次数:7
均方误差和交叉熵误差
均方误差个交叉熵误差都是常用的损失函数之一。 首先简要介绍下损失函数: 损失函数是用来表示神经网络性能的“恶劣程度”的指标。即当前神经网络对监督数据在多大程度上不拟合,在多大 程度上不一致。说白了,即所创建的神经网络对输入数据的预测输出值与监督数据(实际输出值)的差距。 均方误差: 上面是计算公式, ...
分类:其他好文   时间:2020-12-11 12:25:24    阅读次数:3
【深度学习】卷积神经网络中Dropout、BatchNorm的位置选择
深度学习 神经网络 卷积神经网络 深度学习 计算机视觉 人工智能 前言 卷积神经网络的设计自然要考虑到各层之间的顺序。这种“考虑”既有原理性的解释也有经验方面的原因。本文主要介绍一些层常见的位置选择,并对其原因进行分析,从中提取共性有利于其他模型的设计。 Dropout层的位置 Dropout一般放 ...
分类:其他好文   时间:2020-12-09 12:17:27    阅读次数:5
cuDNN 功能模块解析
Abstract 本cuDNN 8.0.4开发人员指南概述了cuDNN功能,如可自定义的数据布局、支持灵活的dimension ordering,striding,4D张量的子区域,这些张量用作其所有例程的输入和输出。这种灵活性可简单集成到任何神经网络实现中。 要访问cuDNN API参考,请参阅c ...
分类:其他好文   时间:2020-12-02 12:35:51    阅读次数:6
浅析神经网络与数学之间的一点关系
主要内容:神经网络与数学之间的关系在我们了解过神经网络的人中,都了解神经网络一个有很常见的训练方法,BP训练算法.通过BP算法,我们可以不断的训练网络,最终使得网络可以无限的逼近一种我们想要拟合的函数,最终训练好的网络它既能在训练集上表现好,也能在测试集上表现不错!那么BP算法具体是什么呢?为什么通过BP算法,我们就可以一步一步的走向最优值(即使有可能是局部最优,不是全局最优,我们也可以通过其它的
分类:其他好文   时间:2020-11-30 15:37:54    阅读次数:7
干货|神经网络最容易被忽视的基础知识二-激活函数以及损失函数知识
上篇讲解了神经网络最容易被忽视的基础知识一干货|神经网络最容易被忽视的基础知识一1为什么在人工神经网络中的神经元需要激活函数?上图可看做普通的线性分类器,也就是线性回归方程。这个比较基础,效果如右图。当然有时候我们发现这样的线性分类器不符合我们要求时,我们很自然的想到那我们就加多一层,这样可以拟合更加复杂的函数,如下图a:但同时当我们动笔算下,就会发现,这样一个神经网络组合起来,输出的时候无论如何
分类:其他好文   时间:2020-11-30 15:16:02    阅读次数:12
3907条   上一页 1 ... 5 6 7 8 9 ... 391 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!