码迷,mamicode.com
首页 >  
搜索关键字:损失函数    ( 619个结果
斯坦福CS231n—深度学习与计算机视觉----学习笔记 课时8&&9
课时8 反向传播与神经网络初步(上) 反向传播在运算连路中,这是一种通过链式法则来进行递推的计算过程,这个链路中的每一个中间变量都会对最终的损失函数产生影响。 链式法则通常包含两部分,局部梯度和后一层的梯度相乘 前向和反向花费的时间是基本一样的。 大的函数也可以直接视作一个整体计算梯度 当局部梯度非 ...
分类:其他好文   时间:2017-04-23 19:30:26    阅读次数:122
79、tensorflow计算一个五层神经网络的正则化损失系数、防止网络过拟合、正则化的思想就是在损失函数中加入刻画模型复杂程度的指标
''' Created on Apr 20, 2017 @author: P0079482 ''' import tensorflow as tf #获取一层神经网络边上的权重,并将这个权重的L2正则化损失加入名称为'losses'的集合中 def get_weight(shape,lambda1)... ...
分类:其他好文   时间:2017-04-21 09:37:59    阅读次数:2557
斯坦福CS231n—深度学习与计算机视觉----学习笔记 课时6
课时6 线性分类器损失函数与最优化(上) 多类SVM损失:这是一个两分类支持向量机的泛化 SVM损失计算了所有不正确的例子,将所有不正确的类别的评分,与正确类别的评分之差加1,将得到的数值与0作比较,取两者中的最大值。然后将所有的数值进行求和。用平均值来代替不会影响结果。 这些评分都是无标度的,因为 ...
分类:其他好文   时间:2017-04-20 21:00:33    阅读次数:193
菜鸟机器学习散点总结(二)
再次声明,总结内容基本非原创,只是一个勤劳的搬运工,由于来源比较杂,只好一起感谢网上提供这些知识的人类们。 一、关于线性回归 线性回归比较简单,这里主要是对线性回归的一种理解,包括部分正则化的内容。 1.模型的概率解释 2.最大似然估计 即: 上面是线性回归最原始的最小平方损失函数,如果为了防止过拟 ...
分类:其他好文   时间:2017-04-12 15:05:34    阅读次数:487
统计学习方法之第二章感知机
假设训练数据线性可分,那么感知机模型如下: f(x)=ω?χ+b这个超平面可以用来分割平面 不考虑系数,那么感知机的损失函数就可以定义为 ...
分类:其他好文   时间:2017-04-08 19:02:10    阅读次数:140
【统计学习】随机梯度下降法求解感知机模型
1. 感知机学习模型 感知机是一个二分类的线性分类问题,求解是使误分类点到超平面距离总和的损失函数最小化问题。采用的是随机梯度下降法,首先任意选取一个超平面w0和b0,然后用梯度下降法不断地极小化目标损失函数,极小化过程中不是一次使所有误分类点的梯度下降,而是一次随机选取一个误分类点使其梯度下降。假 ...
分类:其他好文   时间:2017-04-07 23:42:03    阅读次数:400
线性回归原理小结
线性回归可以说是机器学习中最基本的问题类型了,这里就对线性回归的原理和算法做一个小结。 1. 线性回归的模型函数和损失函数 线性回归遇到的问题一般是这样的。我们有m个样本,每个样本对应于n维特征和一个结果输出,如下: (x(0)1,x(0)2,...x(0)n,y0),(x(1)1,x(1)2,.. ...
分类:其他好文   时间:2017-04-05 22:15:49    阅读次数:270
最大熵模型原理小结
最大熵模型(maximum entropy model, MaxEnt)也是很典型的分类算法了,它和逻辑回归类似,都是属于对数线性分类模型。在损失函数优化的过程中,使用了和支持向量机类似的凸优化技术。而对熵的使用,让我们想起了决策树算法中的ID3和C4.5算法。理解了最大熵模型,对逻辑回归,支持向量 ...
分类:其他好文   时间:2017-04-05 22:09:53    阅读次数:298
[机器学习入门篇]-梯度下降法
梯度下降法的作用是求到一种方案,使得拟合过程中的损失函数最小(结果可能只为局部最优值),除此之外还有最小二乘法等方法。 关于此方法详细的阐述参见:http://www.cnblogs.com/LeftNotEasy/archive/2010/12/05/mathmatic_in_machine_le ...
分类:其他好文   时间:2017-04-04 00:31:54    阅读次数:153
【机器学习】代价函数(cost function)
注:代价函数(有的地方也叫损失函数,Loss Function)在机器学习中的每一种算法中都很重要,因为训练模型的过程就是优化代价函数的过程,代价函数对每个参数的偏导数就是梯度下降中提到的梯度,防止过拟合时添加的正则化项也是加在代价函数后面的。在学习相关算法的过程中,对代价函数的理解也在不断的加深, ...
分类:其他好文   时间:2017-04-01 20:23:03    阅读次数:396
619条   上一页 1 ... 47 48 49 50 51 ... 62 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!