重写下面的样式就可以了.datagrid-header,.datagrid-td-rownumber { background-color: #efefef; background: -webkit-linear-gradient(top,#F9F9F9 0,#efefef 100%); backg ...
分类:
其他好文 时间:
2016-05-25 00:05:36
阅读次数:
597
字体: 中英文数字:方正兰亭黑 移动过度:两个key同时使用一个幻灯片 实际上上没有什么使用价值,但这叫情怀, zoom 换灯片 放大 16:9 array 排列 锁定 字体在别的电脑上没有 审美 审丑 艾迪创想 威亚创意 4:3 1024 769 很多投影幕布在这个尺寸 gradient 苹果发布 ...
分类:
其他好文 时间:
2016-05-24 20:29:14
阅读次数:
246
1.线性渐变:linear-gradient 语法:<linear-gradient> = linear-gradient([ [ <angle> | to <side-or-corner] ,]? <color-start>[, <color-end>]+) <side-or-corner> = ...
分类:
Web程序 时间:
2016-05-24 16:58:50
阅读次数:
286
1、HOG特征:
方向梯度直方图(Histogram of Oriented Gradient, HOG)特征是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子。它通过计算和统计图像局部区域的梯度方向直方图来构成特征。Hog特征结合SVM分类器已经被广泛应用于图像识别中,尤其在行人检测中获得了极大的成功。需要提醒的是,HOG+SVM进行行人检测的方法是法国研究人员Dal...
分类:
其他好文 时间:
2016-05-24 12:11:11
阅读次数:
1900
Gradient Descent 机器学习中很多模型的参数估计都要用到优化算法,梯度下降是其中最简单也用得最多的优化算法之一。梯度下降(Gradient Descent)[3]也被称之为最快梯度(Steepest Descent),可用于寻找函数的局部最小值。梯度下降的思路为,函数值在梯度反方向下降 ...
分类:
其他好文 时间:
2016-05-22 19:56:18
阅读次数:
837
一、原理
梯度提升树(GBT,Gradient Boosted Trees,或称为梯度提升决策树)算法是由Friedman于1999年首次完整的提出,该算法可以实现回归、分类和排序。GBT的优点是特征属性无需进行归一化处理,预测速度快,可以应用不同的损失函数等。
从它的名字就可以看出,GBT包括三个机器学习的优化算法:决策树方法、提升方法和梯度下降法。前两种算法在我以前的文章中都有详细的...
分类:
其他好文 时间:
2016-05-20 19:43:21
阅读次数:
276
1 /*CSS线性渐变*/ 2 FILTER: progid:DXImageTransform.Microsoft.Gradient(gradientType=0,startColorStr=#ffffff,endColorStr=#f1f1f1); /*IE*/ 3 background:-moz ...
分类:
Web程序 时间:
2016-05-19 09:01:21
阅读次数:
166
很棒的css属性,可以再div上方建个同大小的遮罩,配合线性变化gradient可以实现很酷的样式,比如:时间选择的UI组件,里面有个模糊的上方遮罩 手册地址:https://developer.mozilla.org/en-US/docs/Web/CSS/-webkit-mask-box-imag ...
分类:
Web程序 时间:
2016-05-18 21:54:06
阅读次数:
211
Boosting方法: Boosting这其实思想相当的简单,大概是,对一份数据,建立M个模型(比如分类),一般这种模型比较简单,称为弱分类器(weak learner)每次分类都将上一次分错的数据权重提高一点再进行分类,这样最终得到的分类器在测试数据与训练数据上都可以得到比较好的成绩。 上图(图片 ...
分类:
其他好文 时间:
2016-05-16 10:37:53
阅读次数:
254
<!doctype html> <html lang="en"> <head> <meta charset="UTF-8" /> <title>Document</title> <link rel="stylesheet" type="text/css" href="css/gradient.css ...
分类:
Web程序 时间:
2016-05-15 19:30:06
阅读次数:
210