码迷,mamicode.com
首页 >  
搜索关键字:损失函数    ( 619个结果
机器学习之线性回归
1、线性回归 y=θx+ε,其中y=[y1,y2,y3,...,yn]T,θ=[θ1,θ2,...],x=[x1,x2,x3,...,xn]T,ε(残差)符合正态分布 那么对于该模型,就是在损失函数最小的前提条件下,寻找θ取值的过程。其中,损失函数采用最小二乘的方法。 2、对于求θ,有三种方法: 1 ...
分类:其他好文   时间:2019-01-10 22:20:07    阅读次数:165
深度学习初步:
一、背景介绍 1.深度学习应用 2.一点基础:线性分类器 1)线性分类器得分函数: (1)给定W,可以由像素映射到类目得分 (2)可以调整参数/权重W,使得映射的结果和实际类别吻合 (3)损失函数是用来衡量吻合度的 (4)损失函数别的称呼:代价函数(衡量和标准之间的差异到底有多大,值越大) (5)损 ...
分类:其他好文   时间:2019-01-10 21:52:46    阅读次数:199
[pytorch]pytorch loss function 总结
原文: http://www.voidcn.com/article/p rtzqgqkz bpg.html <! 正文顶部广告 (adsbygoogle = window.adsbygoogle || []).push({}); 最近看了下 PyTorch 的损失函数文档,整理了下自己的理解,重新格 ...
分类:其他好文   时间:2019-01-09 20:26:06    阅读次数:6414
深度学习
深度学习 深度学习 定义, 损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。 循环神经网络RNN 简答题 2. 深度学习的算法步骤 1定义很多函数 2训练函数 3 ...
分类:其他好文   时间:2019-01-08 00:13:10    阅读次数:261
Focal Loss 的理解
论文:《Focal Loss for Dense Object Detection》 Focal Loss 是何恺明设计的为了解决one-stage目标检测在训练阶段前景类和背景类极度不均衡(如1:1000)的场景的损失函数。它是由二分类交叉熵改造而来的。 标准交叉熵 其中,p是模型预测属于类别y= ...
分类:其他好文   时间:2019-01-04 17:22:54    阅读次数:1132
理解卷积神经网络?
南洋理工大学的综述论文《Recent Advances in Convolutional Neural Networks》对卷积神经网络的各个组件以及进展情况进行总结和解读,其中涉及到 CNN 中各种重要层的数学原理以及各种激活函数和损失函数。机器之心技术分析师对该论文进行了解读。 论文地址:htt ...
分类:其他好文   时间:2019-01-01 13:23:38    阅读次数:259
机器学习实战之Logistic回归
Logistic回归一、概述 1. Logistic Regression 1.1 线性回归 1.2 Sigmoid函数 1.3 逻辑回归 1.4 LR 与线性回归的区别 2. LR的损失函数 3. LR 正则化 3.1 L1 正则化 3.2 L2 正则化 3.3 L1正则化和L2正则化的区别 4. ...
分类:其他好文   时间:2018-12-31 22:44:04    阅读次数:265
Pytorch学习-训练CIFAR10分类器
output_10_1.png TRAINING A CLASSIFIER 参考 : "Deep Learning with PyTorch: A 60 Minute Blitz" 在学会了以下后: 1. 定义神经网络 2. 计算损失函数 3. 更新权重 What about data Genera ...
分类:其他好文   时间:2018-12-25 20:29:30    阅读次数:1095
常用损失函数积累
损失函数(loss function)是用来估量模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。模型的结构风险函数包括了经验风险项和正则项,通常可以 ...
分类:其他好文   时间:2018-12-24 19:04:06    阅读次数:165
交叉熵损失函数
交叉熵损失是分类任务中的常用损失函数,但是是否注意到二分类与多分类情况下的交叉熵形式上的不同呢? 两种形式 这两个都是交叉熵损失函数,但是看起来长的却有天壤之别。为什么同是交叉熵损失函数,长的却不一样? 因为这两个交叉熵损失函数对应不同的最后一层的输出:第一个对应的最后一层是softmax,第二个对 ...
分类:其他好文   时间:2018-12-24 00:12:53    阅读次数:141
619条   上一页 1 ... 24 25 26 27 28 ... 62 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!