ul{ list-style: none; font-size: 24px; font-weight: bold;}a{ text-decoration: none;}li{ background: linear-gradient(to left,orange,red); width: 150px; ...
分类:
Web程序 时间:
2018-09-30 14:58:56
阅读次数:
237
在机器学习中,有很多的问题并没有解析形式的解,或者有解析形式的解但是计算量很大(譬如,超定问题的最小二乘解),对于此类问题,通常我们会选择采用一种迭代的优化方式进行求解。 这些常用的优化算法包括:梯度下降法(Gradient Descent),共轭梯度法(Conjugate Gradient),Mo ...
分类:
编程语言 时间:
2018-09-29 21:34:02
阅读次数:
225
Gradient boosting decision tree 介绍: 首先gbdt 是通过采用加法模型(即基函数的线性组合),以及不断减小训练过程产生的残差来达到将数据分类或者回归的算法。 GBDT训练过程 gbdt通过多轮迭代,每轮迭代产生一个弱分类器,每个分类器在上一轮分类器的残差基础上进行训 ...
分类:
其他好文 时间:
2018-09-29 20:26:08
阅读次数:
234
RuntimeError:one of the variables needed for gradient computation has been modified by an inplace operation 原因:0.4.0把Varible和Tensor融合为一个Tensor,inplace ...
分类:
其他好文 时间:
2018-09-24 00:26:36
阅读次数:
2407
梯度下降 梯度下降(GD)是最小化风险函数、损失函数的一种常用方法,随机梯度下降和批量梯度下降是两种迭代求解思路。 随机梯度下降Stochastic gradient descent) 随机梯度下降是通过每个样本来迭代更新一次,如果样本量很大的情况(例如几十万),那么可能只用其中几万条或者几千条的样 ...
分类:
其他好文 时间:
2018-09-22 23:47:08
阅读次数:
199
Calculate Gradent Geometric form of the gradient descent The figue below shows the purpose of the gradient descent and finds the minimum value of J($\ ...
分类:
其他好文 时间:
2018-09-11 22:01:47
阅读次数:
208
五、随机森林和 Extra-Trees 六、Ada Boosting 和 Gradient Boosting 七、Stacking 八、学习scikit-learn文档, 官方学习文档: http://scikit-learn.org http://scikit-learn.org/stable/u ...
分类:
其他好文 时间:
2018-09-04 22:33:28
阅读次数:
478