之前,对SSD的论文进行了解读,可以回顾之前的博客:https://www.cnblogs.com/dengshunge/p/11665929.html。 为了加深对SSD的理解,因此对SSD的源码进行了复现,主要参考的github项目是ssd.pytorch。 搭建SSD的项目,可以分成以下三个部 ...
分类:
其他好文 时间:
2019-12-02 00:59:39
阅读次数:
214
目标函数,或称损失函数,是网络中的性能函数,也是编译一个模型必须的两个参数之一。由于损失函数种类众多,下面以keras官网手册的为例。 在官方keras.io里面,有如下资料: mean_squared_error或mse mean_absolute_error或mae mean_absolute_ ...
分类:
其他好文 时间:
2019-11-30 23:59:04
阅读次数:
264
SVM损失函数 L1 = max(0,5.1 3.2+1)+max(0, 1.7 3.2+1) l2 = ...... 损失函数:L=(L1+L2+L3)/3 当所有的分数几乎相同时:L=分类数 1 (就是max中的那个1.共有类数 1个) 为什么使用平均值? 无论分数如何变化loss不会改变 最优 ...
分类:
其他好文 时间:
2019-11-30 11:29:23
阅读次数:
66
系列博客,原文在笔者所维护的github上:https://aka.ms/beginnerAI, 点击star加星不要吝啬,星越多笔者越努力。 3.1 均方差函数 MSE Mean Square Error。 该函数就是最直观的一个损失函数了,计算预测值和真实值之间的欧式距离。预测值和真实值越接近, ...
分类:
其他好文 时间:
2019-11-29 13:06:01
阅读次数:
96
相关问题: 1.弄清除为什么有这个东西,线性回归有什么不足,延申出了逻辑回归,线性回归为什么会不足以解决问题。 2.逻辑回归能怎么解决问题。自己能说出什么一般的例子,解决这些问题的推导过程是什么? 3.用到什么数学工具来构造逻辑回归的损失函数,为什么要选择这样的损失函数形式? 4.怎么样最终解决这个 ...
分类:
其他好文 时间:
2019-11-27 16:07:35
阅读次数:
112
提升方法与前向分步算法 提升方法 从弱学习算法出发,反复学习,得到一系列弱分类器,然后组合这些弱学习器,提升为强学习器 两个问题: 在每一轮如何改变训练数据的权值或概率分布 如何将弱学习器组合成一个强学习器 前向分步算法 AdaBoost另一种解释: 加法模型 损失函数为指数函数 学习算法为前向分步 ...
分类:
其他好文 时间:
2019-11-24 17:26:48
阅读次数:
80
系列博客,原文在笔者所维护的github上:https://aka.ms/beginnerAI, 点击star加星不要吝啬,星越多笔者越努力。 第2章 神经网络中的三个基本概念 2.0 通俗地理解三大概念 这三大概念是:反向传播,梯度下降,损失函数。 神经网络训练的最基本的思想就是:先“猜”一个结果 ...
分类:
其他好文 时间:
2019-11-22 13:38:55
阅读次数:
76
Focal Loss 摘要 Focal Loss 目标是解决样本类别不平衡 以及 样本分类难度不平衡等问题 ,如目标检测中大量简单的background,很少量较难的foreground样本。 Focal Loss通过修改交叉熵函数,通过增加类别权重$\alpha$ 和 样本难度权重调因子(modu ...
分类:
其他好文 时间:
2019-11-20 22:01:17
阅读次数:
123
机器学习(一)基础常用损失函数、评价指标、距离、指标 2018-06-27 15:20:16 Dynomite 阅读数 1184更多 分类专栏: 机器学习 机器学习(一)基础常用损失函数、评价指标、距离、指标 2018-06-27 15:20:16 Dynomite 阅读数 1184更多 分类专栏: ...
分类:
其他好文 时间:
2019-11-18 18:51:24
阅读次数:
71
模型评价 第二章:模型评价与损失函数 要点一: 逻辑回归模型对样本的预测取决于权值向量和偏置。 概念: 序号概念解释 1 训练集 包含真实类别标签的样本集 2 训练 根据训练集寻找最优参数的过程 3 损失函数 是模型参数的函数,用于衡量模型参数的优劣 逻辑回归预测样本x = (x1 ,x2, x3, ...
分类:
其他好文 时间:
2019-11-18 18:50:13
阅读次数:
90