Natural Neural Networks
Google DeepMind又一神作
Projected Natural Gradient Descent algorithm (PRONG) better than SGD as evidenced by the boost in performance offered by batch normalization (BN)
Dee...
分类:
其他好文 时间:
2015-07-08 14:43:35
阅读次数:
136
Convolutional Neural Networks (CNNs / ConvNets)前面做了如此漫长的铺垫,现在终于来到了课程的重点。Convolutional Neural Networks, 简称CNN,与之前介绍的一般的神经网络类似,CNN同样是由可以学习的权值与偏移量构成,每一个神经元接收一些输入,做点积运算加上偏移量,然后选择性的通过一些非线性函数,整个网络最终还是表示成一个可导...
分类:
Web程序 时间:
2015-07-05 16:44:24
阅读次数:
665
Convolutional Neural Network 卷积神经网络是基于人工神经网络提出的。人工神经网络模拟人的神经系统,由一定数量的神经元构成。在一个监督学习问题中,有一组训练数据(xi,yi)(x_i,y_i),x是样本,y是label,把它们输入人工神经网络,会得到一个非线性的分类超平面hw,b(x)h_{w,b}(x),在这篇笔记中先梳理一下传统人工神经网络的基本概念,再基于传统人工神经...
分类:
其他好文 时间:
2015-07-05 15:04:01
阅读次数:
1102
ACL2014的best paper Fast and Robust Neural Network Joint Models for Statistical Machine Translation在SMT中使用深度学习知识,提出了一种neural network joint model(其实就是融合源端语言知识去做语言模型),论文实验给出的结果宣称大幅度提高了以往基于n-gram语言模型翻译系统的...
分类:
其他好文 时间:
2015-07-04 14:06:25
阅读次数:
306
深度学习之神经网络与支持向量机 引言:神经网络(Neural Network)与支持向量机(Support Vector Machines,SVM)是统计学习的代表方法。可以认为神经网络与支持向量机都源自于感知机(Perceptron)。感知机是1958年由Rosenblatt发明的线性分类模型。....
分类:
其他好文 时间:
2015-07-03 22:00:00
阅读次数:
138
最近准备从物体检测的角度来重新审视文本检测这个方向,所以看了下CNN大火以后的几篇经典文献,OverFeat,Region CNN, Dense Neural Pattern等等。
对这个方向来说,百闻不如一试,趁着其他程序还在跑没什么事,我安装了一下RCNN来看看效果...
分类:
其他好文 时间:
2015-07-03 19:19:28
阅读次数:
436
Deeplearning原文作者Hinton代码注解 1 Matlab示例代码为两部分,分别对应不同的论文: 2 3 1. Reducing the Dimensionality of data with neural networks 4 5 ministdeepauto.m ...
分类:
Web程序 时间:
2015-07-03 18:56:31
阅读次数:
207
转自http://blog.csdn.net/zouxy09/article/details/8781543CNNs是第一个真正成功训练多层网络结构的学习算法。它利用空间关系减少需要学习的参数数目以提高一般前向BP算法的训练性能。在CNN中,图像的一小部分(局部感受区域)作为层级结构的最低层的输入,...
分类:
Web程序 时间:
2015-07-02 13:34:35
阅读次数:
578
Convolutional Neural Networks at Constrained Time Cost(精读)...
分类:
Web程序 时间:
2015-06-30 23:38:46
阅读次数:
162
1. Feedforward and cost function;2.Regularized cost function:3.Sigmoid gradientThe gradient for the sigmoid function can be computed as:where:4.Random...
分类:
Web程序 时间:
2015-06-29 19:42:52
阅读次数:
1812