1、线性回归 y=θx+ε,其中y=[y1,y2,y3,...,yn]T,θ=[θ1,θ2,...],x=[x1,x2,x3,...,xn]T,ε(残差)符合正态分布 那么对于该模型,就是在损失函数最小的前提条件下,寻找θ取值的过程。其中,损失函数采用最小二乘的方法。 2、对于求θ,有三种方法: 1 ...
分类:
其他好文 时间:
2019-01-10 22:20:07
阅读次数:
165
一、背景介绍 1.深度学习应用 2.一点基础:线性分类器 1)线性分类器得分函数: (1)给定W,可以由像素映射到类目得分 (2)可以调整参数/权重W,使得映射的结果和实际类别吻合 (3)损失函数是用来衡量吻合度的 (4)损失函数别的称呼:代价函数(衡量和标准之间的差异到底有多大,值越大) (5)损 ...
分类:
其他好文 时间:
2019-01-10 21:52:46
阅读次数:
199
原文: http://www.voidcn.com/article/p rtzqgqkz bpg.html <! 正文顶部广告 (adsbygoogle = window.adsbygoogle || []).push({}); 最近看了下 PyTorch 的损失函数文档,整理了下自己的理解,重新格 ...
分类:
其他好文 时间:
2019-01-09 20:26:06
阅读次数:
6414
深度学习 深度学习 定义, 损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。 循环神经网络RNN 简答题 2. 深度学习的算法步骤 1定义很多函数 2训练函数 3 ...
分类:
其他好文 时间:
2019-01-08 00:13:10
阅读次数:
261
论文:《Focal Loss for Dense Object Detection》 Focal Loss 是何恺明设计的为了解决one-stage目标检测在训练阶段前景类和背景类极度不均衡(如1:1000)的场景的损失函数。它是由二分类交叉熵改造而来的。 标准交叉熵 其中,p是模型预测属于类别y= ...
分类:
其他好文 时间:
2019-01-04 17:22:54
阅读次数:
1132
南洋理工大学的综述论文《Recent Advances in Convolutional Neural Networks》对卷积神经网络的各个组件以及进展情况进行总结和解读,其中涉及到 CNN 中各种重要层的数学原理以及各种激活函数和损失函数。机器之心技术分析师对该论文进行了解读。 论文地址:htt ...
分类:
其他好文 时间:
2019-01-01 13:23:38
阅读次数:
259
Logistic回归一、概述 1. Logistic Regression 1.1 线性回归 1.2 Sigmoid函数 1.3 逻辑回归 1.4 LR 与线性回归的区别 2. LR的损失函数 3. LR 正则化 3.1 L1 正则化 3.2 L2 正则化 3.3 L1正则化和L2正则化的区别 4. ...
分类:
其他好文 时间:
2018-12-31 22:44:04
阅读次数:
265
output_10_1.png TRAINING A CLASSIFIER 参考 : "Deep Learning with PyTorch: A 60 Minute Blitz" 在学会了以下后: 1. 定义神经网络 2. 计算损失函数 3. 更新权重 What about data Genera ...
分类:
其他好文 时间:
2018-12-25 20:29:30
阅读次数:
1095
损失函数(loss function)是用来估量模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。模型的结构风险函数包括了经验风险项和正则项,通常可以 ...
分类:
其他好文 时间:
2018-12-24 19:04:06
阅读次数:
165
交叉熵损失是分类任务中的常用损失函数,但是是否注意到二分类与多分类情况下的交叉熵形式上的不同呢? 两种形式 这两个都是交叉熵损失函数,但是看起来长的却有天壤之别。为什么同是交叉熵损失函数,长的却不一样? 因为这两个交叉熵损失函数对应不同的最后一层的输出:第一个对应的最后一层是softmax,第二个对 ...
分类:
其他好文 时间:
2018-12-24 00:12:53
阅读次数:
141