码迷,mamicode.com
首页 >  
搜索关键字:损失函数    ( 619个结果
深度学习补充和总结
一、损失函数 深度学习中,常用的损失函数为均方误差和交叉熵,分别对应回归和分类问题,其实深度学习的损失函数和机器学习的损失函数差不多,是一致的,均方误差就相当于最小二乘,交叉熵其实是一种特殊的对数损失函数形式,这里不再赘述。 二、激活函数 是深度学习特有的。 关于激活函数,首先要搞清楚的问题是,激活 ...
分类:其他好文   时间:2017-02-09 17:21:01    阅读次数:973
斯坦福机器学习视频笔记 Week3 Logistic Regression and Regularization
我们将讨论逻辑回归。 逻辑回归是一种将数据分类为离散结果的方法。 例如,我们可以使用逻辑回归将电子邮件分类为垃圾邮件或非垃圾邮件。 在本模块中,我们介绍分类的概念,逻辑回归的损失函数(cost functon),以及逻辑回归对多分类的应用。 我们还涉及正规化。 机器学习模型需要很好地推广到模型在实践 ...
分类:其他好文   时间:2017-01-26 23:19:54    阅读次数:288
《机器学习基石》---Linear Models for Classification
1 用回归来做分类 到目前为止,我们学习了线性分类,线性回归,逻辑回归这三种模型。以下是它们的pointwise损失函数对比(为了更容易对比,都把它们写作s和y的函数,s是wTx,表示线性打分的分数): 把这几个损失函数画在一张图上: 如果把逻辑回归的损失函数ce做一个适当的放缩,则可以得到下图: ...
分类:其他好文   时间:2017-01-21 20:26:21    阅读次数:220
数据预处理中归一化(Normalization)与损失函数中正则化(Regularization)解惑
摘要:   1.正则化(Regularization)     1.1 正则化的目的       1.2 正则化的L1范数(lasso),L2范数(ridge),ElasticNet   2.归一化 (Normalization)     2.1归一化的目的     2.1归一化计算方... ...
分类:其他好文   时间:2017-01-19 02:42:43    阅读次数:801
损失函数和分类器评估方法
介绍:以下是李航《统计学习方法的》第一章的部分摘录,只为复习总结用 内容: 1.损失函数: 扩展:线性回归,LR,svm,boosting的损失函数 2.分类器评估方法: ...
分类:其他好文   时间:2017-01-15 11:41:44    阅读次数:537
统计学习方法(第2章)感知机 学习笔记
第2章 感知机 感知机是二类分类的线性分类模型,其输入为实例的特征向量,感知机对应于输入空间(特征空间)中将实例划分为正负两类的分离超平面,属于判别模型。导入基于误分类的损失函数,利用梯度下降法对损失函数进行极小化,求得感知机模型。感知机学习算法分为原始形式和对偶形式,是神经网络和支持向量机的基础。 ...
分类:其他好文   时间:2017-01-07 22:32:59    阅读次数:305
线性回归(HGL的机器学习笔记2)
线性回归:是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。 梯度下降,http://www.cnblogs.com/hgl0417/p/5893930.html 最小二乘: 对于一般训练集: 参数系统为: 线性模型为: 线性回归的目的为最小化损失函数J(θ.... ...
分类:其他好文   时间:2016-12-30 10:18:50    阅读次数:160
随机梯度下降(Stochastic gradient descent)和 批量梯度下降(Batch gradient descent )的公式对比、实现对比[转]
梯度下降(GD)是最小化风险函数、损失函数的一种常用方法,随机梯度下降和批量梯度下降是两种迭代求解思路,下面从公式和实现的角度对两者进行分析,如有哪个方面写的不对,希望网友纠正。 下面的h(x)是要拟合的函数,J(theta)损失函数,theta是参数,要迭代求解的值,theta求解出来了那最终要拟 ...
分类:其他好文   时间:2016-12-17 11:36:03    阅读次数:194
特征处理
特征工程 一、特征处理 1. 正负样本不均衡问题 a) Oversampleing b) 修改损失函数 c) 取n份正样本 与 负样本 分别构建分类器,然后vote 2. 数值特征处理 a) 归一化 b) Log变换 c) 统计max min mean std d) 离散化 e) HASH分桶 f) ...
分类:其他好文   时间:2016-12-11 12:24:54    阅读次数:343
r-cnn学习(五):SmoothL1LossLayer论文与代码的结合理解
A Loss Function for Learning Region Proposals 训练RPN时,只对两种anchor给予正标签:和gt_box有着最高的IoU && IoU超过0.7。如果对于 所有的gt_box,其IoU都小于0.3,则标记为负。损失函数定义如下: 其中i为一个mini- ...
分类:其他好文   时间:2016-12-06 14:12:37    阅读次数:1654
619条   上一页 1 ... 49 50 51 52 53 ... 62 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!