码迷,mamicode.com
首页 >  
搜索关键字:gradient    ( 1157个结果
CheeseZH: Stanford University: Machine Learning Ex1:Linear Regression
(1) How to comput the Cost function in Univirate/Multivariate Linear Regression;(2) How to comput the Batch Gradient Descent function in Univirate/Mul...
分类:系统相关   时间:2015-06-24 10:55:27    阅读次数:546
表单填写进度提示效果
Fort.js 是一款用于时尚、现代的表单填写进度提示效果的JavaScript 库,你需要做的就是添加表单,剩下的任务就交给 Fort.js算法了,使用非常简单。提供了Default、Gradient、Sections 以及 Flash 四种效果,满足开发的各种场合需要。源码下载 在线演示
分类:其他好文   时间:2015-06-23 11:52:53    阅读次数:114
背景渐变 兼容IE
CSS 实现元素背景渐变 .demo { width:100%; height:200px; border:solid 1px #213c7c; background: -webkit-gradient(linear, 0 0, 0 100%, from(#80c1e7), to(#213c7c)); background: -...
分类:其他好文   时间:2015-06-20 18:28:05    阅读次数:128
shape
在Android程序开发中,我们经常会去用到Shape这个东西去定义各种各样的形状,首先我们了解一下Shape下面有哪些标签,都代表什么意思: solid:填充android:color指定填充的颜色 gradient:渐变android:startColor和android:en...
分类:其他好文   时间:2015-06-11 21:11:20    阅读次数:119
UFLDL教程笔记及练习答案三(Softmax回归与自我学习)
1:softmax回归 当p(y|x,theta)满足多项式分布,通过GLM对其进行建模就能得到htheta(x)关于theta的函数,将其称为softmax回归。教程中已经给了cost及gradient的求法。需要注意的是一般用最优化方法求解参数theta的时候,采用的是贝叶斯学派的思想,需要加上参数theta。 习题答案: (1) 数据加载——————代码已给 (2) %% STEP ...
分类:其他好文   时间:2015-06-09 21:54:11    阅读次数:226
毕业课题之------------图像的HOG特征提取
??   HOG 即梯度方向直方图(Histograms of Oriented Gradient),最早是由 Navneet Dalal  和Bill Triggs在 2005 年提出来,最初用于行人检测。他们提取 HOG 特征,采用线性 SVM分类器进行行人检测,取得了很好的效果。HOG 特征的提出建立在这样一个假设之上,即物体局部范围像素的边缘信息和梯度值分布能够充分描述该...
分类:其他好文   时间:2015-06-08 17:29:32    阅读次数:218
【原创】batch-GD, SGD, Mini-batch-GD, Stochastic GD, Online-GD -- 大数据背景下的梯度训练算法
机器学习中梯度下降(Gradient Descent, GD)算法只需要计算损失函数的一阶导数,计算代价小,非常适合训练数据非常大的应用。梯度下降法的物理意义很好理解,就是沿着当前点的梯度方向进行线搜索,找到下一个迭代点。但是,为什么有会派生出 batch、mini-batch、online这些GD...
分类:编程语言   时间:2015-06-06 19:23:07    阅读次数:237
优化中的subgradient方法
哎,刚刚submit上paper比较心虚啊,无心学习,还是好好码码文字吧。 subgradient中文名叫次梯度,和梯度一样,完全可以多放梯度使用,至于为什么叫子梯度,是因为有一些凸函数是不可导的,没法用梯度,所以subgradient就在这里使用了。注意到,子梯度也是求解凸函数的,只是凸函数不是处处可导。f:X→Rf: \mathcal{X}\rightarrow \mathbb{R}是一个凸函...
分类:其他好文   时间:2015-06-06 12:06:38    阅读次数:218
梯度下降法
这几天在看《统计学习方法》这本书,发现 梯度下降法在 感知机 等机器学习算法中有很重要的应用,所以就特别查了些资料。 一.介绍 梯度下降法(gradient descent)是求解无约束最优化问题的一种常用方法,有实现简单的优点。梯度下降法是迭代算法,每一步需要求解目标函数的梯度向量。二.应用...
分类:其他好文   时间:2015-06-06 06:48:06    阅读次数:124
梯度下降法Gradient Descent
#Gradient Descent 梯度下降法#x为数据矩阵(mxn m:样本数 n:特征数 );y观测值(mx1);error相邻两次迭代的最大误差;#step为设定的固定步长;maxiter最大迭代次数,alpha,beta为回溯下降法的参数# 在直接设置固定的step时,不宜设置的过大,当步长...
分类:其他好文   时间:2015-06-04 21:01:28    阅读次数:229
1157条   上一页 1 ... 93 94 95 96 97 ... 116 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!