Ref: 从LeNet-5看卷积神经网络CNNs 关于这篇论文的一些博文的QAC: 1. 基本原理 MLP(Multilayer Perceptron,多层感知器)是一种前向神经网络(如下图所示),相邻两层网络之间全连接。 sigmoid通常使用tanh函数和logistic函数。 1998年Yan ...
分类:
Web程序 时间:
2016-12-20 09:45:13
阅读次数:
315
卷积运算(Convolution)是通过两个函数f 和g 生成第三个函数的一种数学算子,表示函数f 与经过翻转和平移与g 的重叠部分的累积。如果将参加卷积的一个函数看作区间的指示函数,卷积还可以被看作是“滑动平均”的推广。假设: f(x),g(x)是R1上的两个可积函数,并且积分是存在的。这样,随着 ...
分类:
其他好文 时间:
2016-12-19 00:17:14
阅读次数:
107
本文总结自《Neural Networks and Deep Learning》第3章的内容。 目录 交叉熵代价函数(The cross-entropy cost function) 柔性最大值(softmax) 过度拟合(Overfitting) 规范化(regularization) 权重初始化 ...
分类:
其他好文 时间:
2016-12-19 00:14:41
阅读次数:
329
文章链接: http://pan.baidu.com/s/1bQBJMQ 密码:4772 作者在这里提出了基于神经网络的Cascade方法,Cascade最早可追溯到Haar Feature提取时用到的Adaboost算法(参考这个博客:http://blog.csdn.net/zouxy09/ar ...
分类:
Web程序 时间:
2016-12-18 01:31:25
阅读次数:
255
没啥自己的内容,推荐若干链接,这些是真爱,你值得拥有。 Principles of training multi-layer neural network using backpropagation A Step by Step Backpropagation Example Derivation: ...
分类:
其他好文 时间:
2016-12-17 16:42:41
阅读次数:
124
1. 概述 前面我们已经介绍了最早的神经网络:感知机。感知机一个非常致命的缺点是由于它的线性结构,其只能做线性预测(甚至无法解决回归问题),这也是其在当时广为诟病的一个点。 虽然感知机无法解决非线性问题,但是其给非线性问题的解决提供了一个思路。感知机的局限来自于其线性结构,如果我们能够给其加入非线性 ...
分类:
移动开发 时间:
2016-12-15 17:49:12
阅读次数:
182
本文总结自《Neural Networks and Deep Learning》第1章的部分内容。 使用梯度下降算法进行学习(Learning with gradient descent) 1. 目标 我们希望有一个算法,能让我们找到权重和偏置,以至于网络的输出y(x) 能够拟合所有的训练输入x。 ...
分类:
编程语言 时间:
2016-12-11 02:13:19
阅读次数:
259
本文总结自《Neural Networks and Deep Learning》第1章的部分内容。 目录 感知器 S型神经元 神经网络的架构 用神经网络识别手写数字 迈向深度学习 感知器(Perceptrons) 1. 基本原理 感知器是一种人工神经元。 一个感知器接受几个二进制输入:x1,x2,. ...
分类:
其他好文 时间:
2016-12-09 22:11:21
阅读次数:
544
A Neural Network Playground Understanding neural networks with TensorFlow Playground 机器之心翻译 ...
分类:
其他好文 时间:
2016-12-07 13:49:29
阅读次数:
390
写博客好麻烦,每次写到一半就不想写了。。。。前面好几个坑还没填完,这又来写新的了== 老板一句话,直接抛开之前检测的工作,来研究跟踪,这算是研究生阶段严格来说看的第一篇跟踪文章吧,这篇文章号称标志了跟踪也被深度学习攻陷~下面进入正题。 一、简介 1、CNN为什么在跟踪中用的少 为什么CNN兴起那么久 ...
分类:
Web程序 时间:
2016-12-03 02:04:02
阅读次数:
991