1.概述 GBDT基于GB算法。GB算法的主要思想是,每次建立模型是在之前建立模型损失函数的梯度下降方向。损失函数是评价模型性能(一般为拟合程度+正则项),认为损失函数越小,性能越好。而让损失函数持续下降,就能使得模型不断调整提升性能,其最好的方法就是使损失函数沿着梯度方向下降。GBDT再此基础上, ...
分类:
数据库 时间:
2020-03-04 09:52:00
阅读次数:
84
导读 Epoch,Batchsize,Iterations,这三个都是深度学习训练模型时经常遇到的概念。你一定有过这样的时刻,面对这几个词傻傻分不清楚,这三个概念究竟是什么,它们又有什么区别? 梯度下降法 一切的一切,要从机器学习中的梯度下降法说起。 首先让我们来回顾一下这个常见的不能再常见的算法。 ...
分类:
其他好文 时间:
2020-03-03 12:55:15
阅读次数:
74
在各类比赛中经常出现预测回归问题,一般使用scikit learn的模型,本文就对这些类库的使用做一个总结,总结时注重自己做比赛中的使用经验。 1. Ordinary Least Squares(最小二乘法) 最简单的线性模型,损失函数是平方差损失,常用梯度下降法求解参数。 使用要点:这个模型不像其 ...
分类:
其他好文 时间:
2020-02-29 15:05:01
阅读次数:
105
直方图概述 简单来说,直方图就是对数据进行统计的一种方法,这些数据可以是梯度、方向、色彩或任何其他特征。它的表现形式是一种二维统计表,横纵坐标分别是统计样本和该样本对应的某个属性的度量。 计算直方图:calcHist 函数 calcHist 函数用于计算一个或多个阵列的直方图。 void calcH ...
分类:
其他好文 时间:
2020-02-28 18:39:46
阅读次数:
129
今天解释梯度下降法的实践 从昨天工资模型中我们引入两个变量 姓名 月工资 考勤率 上税率 合计 W 4700元 0.9 0.15 3760元 Z 4900元 0.85 0.26 3675 元 T 4850元 0.99 0.35 4122.5元 p 4750元 0.95 0.17 4037.5元 .. ...
分类:
其他好文 时间:
2020-02-28 01:32:09
阅读次数:
124
Canny边缘检测 使用高斯滤波器,以平滑图像,滤除噪声。 计算图像中每个像素点的梯度强度和方向。 应用非极大值(Non-Maximum Suppression)抑制,以消除边缘检测带来的杂散响应。 应用双阈值(Double-Threshold)检测来确定真实的和潜在的边缘。 通过抑制孤立的弱边缘最 ...
分类:
其他好文 时间:
2020-02-27 23:32:43
阅读次数:
122
为什么使用卷积?(Why convolutions?) 我们来分析一下卷积在神经网络中如此受用的原因,然后对如何整合这些卷积,如何通过一个标注过的训练集训练卷积神经网络做个简单概括。和只用全连接层相比,卷积层的两个主要优势在于参数共享和稀疏连接,举例说明一下。 假设有一张32×32×3维度的图片,这 ...
分类:
其他好文 时间:
2020-02-27 20:34:30
阅读次数:
68
https://www.cnblogs.com/chenshihao/p/12040910.html sigmoid 小结 优点 sigmoid 是使用范围最广的一类激活函数,具有指数函数形状,它在物理意义上最为接近生物神经元。 (0, 1) 的输出还可以被表示作概率,或用于输入的归一化,代表性的如 ...
分类:
其他好文 时间:
2020-02-25 13:19:06
阅读次数:
133
梯度消失和梯度爆炸其实是一种情况:均是在神经网络中,当前面隐藏层的学习速率低于后面隐藏层的学习速率,即随着隐藏层数目的增加,分类准确率反而下降了。 梯度消失产生的原因: (1)隐藏层的层数过多; (2)采用了不合适的激活函数(更容易产生梯度消失,但是也有可能产生梯度爆炸) 梯度爆炸产生的原因: (1 ...
分类:
其他好文 时间:
2020-02-23 21:55:31
阅读次数:
180
目录 简述 梯度下降与梯度上升 梯度下降法算法详解 梯度下降法大家族(BGD,SGD,MBGD) 梯度下降法和其他无约束优化算法的比较 总结 在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一,另一种常用的方法是最小二乘法(在【2】中已... ...
分类:
其他好文 时间:
2020-02-23 21:50:51
阅读次数:
65