码迷,mamicode.com
首页 > 其他好文 > 详细

0603 每日文献阅读 打卡

时间:2021-06-03 18:09:43      阅读:0      评论:0      收藏:0      [点我收藏+]

标签:背景   上进   架构   The   fas   兼容   转移   卷积   oca   

Read Data:0603

Publication: CVPR 2021

Title: Instance Localization for Self-supervised Detection Pretraining

Participants: Ceyuan Yangy, Zhirong Wu, Bolei Zhouy;z Stephen Lin

Aim:

提出专门用于目标检测的自监督预训练模型。

Research Question:

(1)需要将预先训练过的网络重新放入目标网络体系结构中进行细化。这通常涉及到非一般的体系结构变化,例如插入特征金字塔或使用大膨胀的卷积核

(2)对于典型的对比学习模型,训练前pretext任务在实例区分中,考虑图像的整体,没有明确的空间建模的区域。虽然它提高了分类的可转移性,但这种实践与空间推理任务(如对象检测)不太兼容。

Method:

本文提出一个新颖的pretext任务,实例定位,作为实例歧视的扩展。如图3所示,我们通过将前景实例覆盖到背景上来合成图像组合。目的是利用包围框信息区分前景和背景。为了实现这一任务,必须首先对前景实例进行定位,然后提取前景特征。

首先,描述了将包围盒表示引入对比学习框架的方法。

然后,提出了在边界框上进行数据扩展以提高定位能力的一种有效方法。图像增强在对比学习中发挥这重要的作用,gt bounding box可能包含背景上的区域,因此,可以进一步引导表示在空间上忽略背景并获得定位能力。

最后,给出了我们在两个流行的检测骨干R50-C4和R50-FPN上的方法的架构细节。

Results:

在PASCAL VOC上,我们的模型使用R50-C4骨架结构的Faster R-CNN检测器,当epoch为200和800时,得到了+0.9和+1.0 AP的改进。

在COCO上,使用Mask R-CNN[24]框架与R50- C4和R50- fpn骨干网络,预训练200个epoch,InsLoc优于直接基线MoCo-v2的R50-C4和R50-FPN骨干+0.7和+1.5 AP。

Discussion:

Conclusion:

提出了一种新的实例定位pertext任务,并引入了边界框在自监督表示学习中的应用。预训练模型在整体图像分类方面表现较弱,但在补丁定位方面表现较强。在转移到目标检测时,相对于基线MoCo有了明显的改进,并在VOC和COCO上取得了最先进的结果。我们还表明,当标记数据特别小时,我们的方法获得较大的增益。实验结果表明,通过改进任务对齐,可以提高目标检测的传输性能。

Further:

Ref:

 

技术图片

 

 

0603 每日文献阅读 打卡

标签:背景   上进   架构   The   fas   兼容   转移   卷积   oca   

原文地址:https://www.cnblogs.com/xmy-0904-lfx/p/14844711.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!