首先看一下运行效果: 下面是项目整体目录: 0.实现神经网络总览 神经网络由层、神经元、权重、激活函数和偏置组成。每层都有一个或者多个神经元,每一个神经元都和神经输入/输出连接,这些连接就是权重。 需要重点强调一下,一个神经网络可能有很多隐含层,也可能一个没有,因为每层的神经元数目也可能不同。然而, ...
分类:
编程语言 时间:
2019-09-22 15:21:38
阅读次数:
130
感知野的概念尤为重要,对于理解和诊断CNN网络是否工作,其中一个神经元的感知野之外的图像并不会对神经元的值产生影响,所以去确保这个神经元覆盖的所有相关的图像区域是十分重要的;需要对输出图像的单个像素进行预测的任务,使每一个输出像素具有一个比较大的感知野是十分重要的,在做预测试时,每一个关键的信息就不 ...
分类:
Web程序 时间:
2019-09-05 23:09:41
阅读次数:
120
漫谈autoencoder:降噪自编码器/稀疏自编码器/栈式自编码器(含tensorflow实现) 2018年08月11日 20:45:14 wblgers1234 阅读数 13196更多 分类专栏: 机器学习 深度学习 漫谈autoencoder:降噪自编码器/稀疏自编码器/栈式自编码器(含ten ...
分类:
其他好文 时间:
2019-08-31 10:53:47
阅读次数:
357
Problem A: 记忆(memory) Time Limit: 1000 ms Memory Limit: 512 MB Description 你在跟朋友玩一个记忆游戏。 朋友首先给你看了n个长度相同的串,然后从中等概率随机选择了一个串。 每一轮你可以询问一个位置上的正确字符,如果能够凭借已有 ...
分类:
其他好文 时间:
2019-08-30 13:35:38
阅读次数:
85
摘录自《机器学习及应用》汪荣贵 机械工业出版社 总结了一些神经网络与深度学习中的一些网络介绍。 1.神经元与感知机 (1)关于激活函数 (2)MLP MLP模型的网络结构没有环路或回路,故是一类前馈网络模型。MLP模型中隐含层的层数可为一层也可为多层。对于MLP模型和BP神经网络这样包含多个数据处理 ...
分类:
其他好文 时间:
2019-08-26 23:04:40
阅读次数:
190
题目描述: 你培育出了一些新型的神经元,它们可以有很多的轴突。 具体来说,对于第i个神经元,它有1~di条轴突,因此可以与1~di个神经元相连,可以将轴突看成无向图的边,假定每个神经元都是不同的。 现在你想知道,有多少种方案使得其中恰好k个神经元相连通,这里的连通需要保证任意两个神经元间有且仅有一条 ...
分类:
其他好文 时间:
2019-08-24 20:53:17
阅读次数:
89
卷积神经网络 代码:https://github.com/TimVerion/cat 卷积层 卷积层:通过在原始图像上平移来提取特征,每一个特征就是一个特征映射 原理:基于人脑的图片识别过程,我们可以认为图像的空间联系也是局部的像素联系比较紧密,而较远的像素相关性比较弱,所以每个神经元没有必要对全局 ...
分类:
其他好文 时间:
2019-08-22 22:04:51
阅读次数:
143
超参数(Hyper-Parameter)是困扰神经网络训练的问题之一,因为这些参数不可通过常规方法学习获得。 神经网络经典五大超参数: 学习率(Leraning Rate)、权值初始化(Weight Initialization)、网络层数(Layers) 单层神经元数(Units)、正则惩罚项(R ...
分类:
其他好文 时间:
2019-08-22 13:03:08
阅读次数:
93
目录 卷积层的dropout 全连接层的dropout Dropout的反向传播 Dropout的反向传播举例 参考资料 在训练过程中,Dropout会让输出中的每个值以概率keep_prob变为原来的1/keep_prob倍,以概率1-keep_prob变为0。也就是在每一轮的训练中让一些神经元随 ...
分类:
其他好文 时间:
2019-08-20 10:47:55
阅读次数:
105
4.1深层神经网络 (1)到底是深层还是浅层是一个相对的概念,不必太纠结,以下是一个四层的深度神经网络: (2)一些符号定义: a[0]=x(输入层也叫做第0层) L=4:表示网络的层数 g:表示激活函数 第l层输出用a[l],最终的输出用a[L]表示 n[1]=5:表示第一层有五个神经元,第l层神 ...
分类:
其他好文 时间:
2019-08-16 00:52:39
阅读次数:
77