梯度下降法(gradient descent):是求解无约束最优化问题的一种常用的方法。是一种迭代算法。 输入: 目标函数f(x), 梯度函数g(x) = ▽f(x) , 计算精度 ε; 输出: f(x) 的极小点x*。 (1) 取初始值x(k) 属于Rn,置k= 0 (2) 计算f(x(k) ) ...
分类:
其他好文 时间:
2016-04-23 11:50:52
阅读次数:
206
功能:相当于自定义一个模板 首先,要新建一个drawble文件夹 然后,再新建一个XML文件 在<shap></shap>中写内容 <corners/>圆角 <stroke/>边框 <gradient/>渐变 比如说要在按钮中使用它: android:background="@drawable/XX ...
分类:
其他好文 时间:
2016-04-22 13:22:44
阅读次数:
122
(一)牛顿法解最大似然估计 牛顿方法(Newton's Method)与梯度下降(Gradient Descent)方法的功能一样,都是对解空间进行搜索的方法。其基本思想如下: 对于一个函数f(x),如果我们要求函数值为0时的x,如图所示: 我们先随机选一个点,然后求出该点的切线,即导数,延长它使之 ...
分类:
其他好文 时间:
2016-04-21 01:17:59
阅读次数:
442
background: -webkit-linear-gradient(#0f86d4, #0d64bd); /* Safari 5.1 - 6.0 */ background: -o-linear-gradient(#0f86d4, #0d64bd); /* Opera 11.1 - 12.0 * ...
分类:
其他好文 时间:
2016-04-20 11:30:16
阅读次数:
137
首先在activity_main.xml加入一个EditText 通过xml的方式来沈成一个图像在drawable中新建一个white_bg.xml文件,同时选择一个shape标签corners设置圆角 gradient设置颜色渐变 stroke设置边框的宽度和颜色 将white_bg.xml部署到 ...
分类:
移动开发 时间:
2016-04-19 22:46:17
阅读次数:
446
神经网络之BP算法,梯度检验,参数随机初始化
neural network(BackPropagation algorithm,gradient checking,random initialization)
一、代价函数(cost function)
对于训练集,代价函数(cost
function)定义为:
其中红色方框圈起的部分为正则项,k:输出单...
分类:
Web程序 时间:
2016-04-17 22:38:33
阅读次数:
240
刚刚完成了Andrew Ng在Cousera上的Machine Learning的第十周课程,这周主要介绍的是大规模机器学习,现将笔记整理在下面。Gradient Descent with Large DatasetsLearning With Large Datasets在前面介绍bias-variance的时候,我们曾提到一个比较各种算法孰优孰劣的实验,结论是”it’s not who has...
分类:
系统相关 时间:
2016-04-14 14:26:02
阅读次数:
301
× 目录 [1]定义 [2]椭圆圆心 [3]椭圆类型 [4]椭圆大小 [5]色标 [6]重复渐变 [7]其他 前面的话 上篇介绍了线性渐变,本文接着介绍径向渐变的内容 定义 径向渐变,实际上就是椭圆渐变,圆只是一种特殊的椭圆而已。径向渐变从圆心点以椭圆形状向外扩散,渐变的实现由两部分组成:椭圆和色标 ...
分类:
Web程序 时间:
2016-04-13 02:08:41
阅读次数:
233
Shape的基础标签共有6个:corners, gradient, solid, stroke, padding, size Shape可以有四种形状:rectangle(矩形,默认形状),oval(椭圆形),ring(水平线),ring(环形) 关于corners标签:corners元素只适用于r ...
分类:
移动开发 时间:
2016-04-12 20:53:59
阅读次数:
253
渐变
一、 线性渐变
1 线性渐变格式
linear-gradient([ || ,]? , …)
只能用在背景上
2 IE filter:progid:DXImageTransform.Microsoft.gradient(startColorstr='#ffffff',endColorstr='#ff0000',G...
分类:
Web程序 时间:
2016-04-12 17:40:40
阅读次数:
255