码迷,mamicode.com
首页 >  
搜索关键字:triple loss    ( 896个结果
推荐算法相关
推荐算法相关 [TOC] 推荐系统介绍 What:分类目录、搜索引擎、推荐系统 Why:需要在信息过载、用户需求不明确的背景下,留住用户和内容生产者,实现商业目标 评估指标 准确性 学界:RMSE、MAE、Recall、Precision 业界 头条:阅读 阅读时长 分享/评论 关注/付费 快手:播 ...
分类:编程语言   时间:2019-02-12 18:34:05    阅读次数:286
『计算机视觉』物体检测之RefineDet
Two Stage 的精度优势 二阶段的分类:二步法的第一步在分类时,正负样本是极不平衡的,导致分类器训练比较困难,这也是一步法效果不如二步法的原因之一,也是focal loss的motivation。而第二步在分类时,由于第一步滤掉了绝大部分的负样本,送给第二步分类的proposal中,正负样本比 ...
分类:其他好文   时间:2019-02-09 12:09:21    阅读次数:459
英语中数学符号读法
参考这篇,非常有用 http://www.sohu.com/a/213007581_224832 1. x' 读 x prime x'' 读 x double prime x''' 读 x triple prime 2. 上标(superscript) 下标(subscript)W_0 读法应为 w ...
分类:其他好文   时间:2019-02-07 16:33:19    阅读次数:151
数据挖掘笔试面试(7)
【校招面经】机器学习与数据挖掘常见面试题整理 part2 2018年07月25日 12:36:40 稻蛙 阅读数:150 【校招面经】机器学习与数据挖掘常见面试题整理 part2 2018年07月25日 12:36:40 稻蛙 阅读数:150 【校招面经】机器学习与数据挖掘常见面试题整理 part2 ...
分类:其他好文   时间:2019-02-06 22:29:44    阅读次数:190
What is Zeebe?
转自:https://zeebe.io/what-is-zeebe/ Zeebe is a workflow engine for microservices orchestration. This write-up will help you understand exactly what Zee ...
分类:其他好文   时间:2019-02-04 20:58:12    阅读次数:214
基础内容
Keras 文档http://keras.io 使用GPU加速模型训练: 训练深度神经网络的一些策略,用于提升模型精确度 1)选择合适的代价函数loss:MSE (Mean Squared Error)均方误差,Cross Entropy交叉熵。当输出层为softmax层时,选择交叉熵代价函数更为科 ...
分类:其他好文   时间:2019-02-03 18:24:02    阅读次数:340
Focal Loss
为了有效地同时解决样本类别不均衡和苦难样本的问题,何凯明和RGB以二分类交叉熵为例提出了一种新的Loss Focal loss 原始的二分类交叉熵形式如下: Focal Loss形式如下: 上式中,相对于原始的二分类交叉熵加入了两个量:1、modulating factor:(其中幂称为focusi ...
分类:其他好文   时间:2019-01-29 18:20:55    阅读次数:140
Torch.no_grad()影响MSE损失
相关描述 "https://discuss.pytorch.org/t/torch no grad affecting outputs loss/28595/3" 今天在训练网络的时候,发现mseloss在train和test时相差了好几个量级,后来发现是因为 ,并不是对称的,input的应该是网络 ...
分类:其他好文   时间:2019-01-28 15:12:40    阅读次数:764
决策树与集成模型
一、从LR到决策树 0.思考一些一个分类问题:是否去相亲,LR解决的问题可能是这样的 在下面各个特征下给定w1,w2,w3,w4等参数值,将wx+b送到sigmoid函数中去,拿到一个概率p,我们在使用这个函数的时候会有一个损失函数loss function,对于这个代价函数通过GD梯度下降完成优化 ...
分类:其他好文   时间:2019-01-26 13:14:30    阅读次数:199
【论文阅读】MEAL: Multi-Model Ensemble via Adversarial Learning
本文来自 AAAI 2019, Oral的一篇文章,主要的思想是通过知识蒸馏的方法将不同的已训练的teachers模型,压缩为一个简单的student网络,来学习多种模型的知识而不用产生额外的测试开销。作者使用的是基于对抗的学习策略,设计了一个block-wise training loss引导和优 ...
分类:其他好文   时间:2019-01-25 00:21:44    阅读次数:509
896条   上一页 1 ... 30 31 32 33 34 ... 90 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!