v‘ =0.04v^2 + 5v + 140 - u + I u' =a(bv - u) if v > 30 mV; thenv=cu=u + d: 现在网络上和各大论坛所有的大部分都是多神经元模型,有关于单个神经元模型的代码很少,这不利于我们对于其特性的探索。 因此,我将附上Izhikevich的 ...
分类:
其他好文 时间:
2019-03-29 23:45:56
阅读次数:
321
卷积神经网络结构: 1、 数据输入层: 去均值:将平均值变为0 归一化:将不同的特征,取值范围变为一致的 PCA降维、白化 2、 卷积计算层: 每个神经元看做是一个过滤器(一个带权重的矩阵),过滤器对原数据进行卷积相关操作(内积),不同过滤器关注的特征不同 局部连接:过滤器提取局部特征,然后再与后面 ...
分类:
其他好文 时间:
2019-03-26 16:47:56
阅读次数:
207
目前机器学习、深度学习在业界使用的越来越广泛,做为一个有着技术追求的it人,我觉得有必要学习和了解一下这块的知识,今天就从最简单的单层神经网络开始介绍。 在介绍人工神经网络之前,首先认知下神经元。 神经元 不知道大家还有印象这个图吗?这个是出现在我们生物课本中的一幅图。 一个神经元的组成基本就是上图 ...
分类:
编程语言 时间:
2019-03-11 00:41:57
阅读次数:
306
基础的LSTM模型,单隐层,隐层单神经元,而实际中一般需要更为复杂的网络结构, 下面借用手写数字的经典案例构造比较复杂的LSTM模型,并用代码实现。 单隐层,隐层多神经元 上面的网络大概是这样 x1 x2 其实应该是 xt1 xt2 多层隐层,隐层多节点 其他代码雷同 ...
分类:
其他好文 时间:
2019-03-08 16:37:06
阅读次数:
230
《运动改造大脑》约翰·瑞迪 埃里克·哈格曼著 运动使我们大脑处于最佳状态。 我们的梦想、计划和创造能力恰好源自大脑中负责支配运动的那部分区域。 运动让大脑保持最佳状态,大脑和肌肉的反应一样-用进废退。大脑内的每个神经元通过树状分支上的“叶片”相互接触,而运动则可以促进这些分支生长并发出许多侧枝,因此 ...
分类:
其他好文 时间:
2019-03-03 22:27:28
阅读次数:
174
1.非线性激活的重要性 如果神经元的输出是输入的线性函数,而线性函数之间的嵌套任然会得到线性函数。如果不加如飞西安新处理,那么最终得到的仍然是线性函数。 2.常用的非线性激活函数 ReLu的优点 运算非常简单快速 由于当输入大于0时,导数永远是1,可以避免梯度消失 当输入大于零时才有非零输出,而输入 ...
分类:
其他好文 时间:
2019-03-01 23:26:53
阅读次数:
317
在学习RNN的时候,经常会用CNN来类比,过程中我发现自己对CNN有些地方理解的还不是很清楚。 疑惑1:CNN卷积层的神经元是什么样的? CNN的卷积层包括各种概念,各种计算,但是我忽然发现,基本没人提到卷积层的神经元,而且在tensorflow编程中,也无需设置卷积层的神经元,这使得我们更加忽略了 ...
分类:
其他好文 时间:
2019-02-26 21:07:16
阅读次数:
207
dropout 是神经网络用来防止过拟合的一种方法,很简单,但是很实用。 基本思想是以一定概率放弃被激活的神经元,使得模型更健壮,相当于放弃一些特征,这使得模型不过分依赖于某些特征,即使这些特征是真实的,当然也可能是假的。 大致步骤如下 1. 在神经元 H1 被激活后,随机生成一组数据 U1 和一个 ...
分类:
其他好文 时间:
2019-02-24 13:43:51
阅读次数:
349
一、MSE 损失函数推导 前向传播过程: 梯度反向传播公式推导: 定义残差: 则 残差推导如下: 对于最后一层: 广义上,左边项(-(···))是定义的损失函数对其输入(即最后一层神经元值)的导数,右项是sigmoind求导,这两项都是根据实际使用可以替换的。 对于隐藏层: 若去掉下标i,则有 其中 ...
分类:
编程语言 时间:
2019-02-23 10:55:49
阅读次数:
263
激活函数引用:https://www.cnblogs.com/ms-uap/p/9962978.html 首先,单个神经元是长这样的: 也就是,当A=σ(Z)=Z时,不使用激活函数的话,那么,单个神经网络,输出只能是A = ΣWX + b 1. 从训练数据来理解。(参考:https://blog.c ...
分类:
其他好文 时间:
2019-02-12 13:07:18
阅读次数:
202