推广 热搜: 百度  搜索引擎  企业  可以  使用  选择  上海  技术  货运  未来 

训练softmax分类器实例_Long-Tailed Classification (3) 长尾分布下的物体检测和实例分割最新研究...

   日期:2025-01-03     作者:62aq6    caijiyuan  
核心提示:1. (往期) 长尾分布下分类问题简介与基本方法2. (往期) 长尾分布下分类问题的最新研究3. (本期) 长尾分布下的物体检测和实例分割

1. (往期) 长尾分布下分类问题简介与基本方法

2. (往期) 长尾分布下分类问题的最新研究

3. (本期) 长尾分布下的物体检测和实例分割最新研究

4. (后续) 一种崭新的长尾分布下分类问题的通用算法

长尾(不均衡)分布下的物体检测和实例分割的研究主要发展于2019年LVIS(Large Vocabulary Instance Segmentation)数据集发布之后,所以仍然是个非常“年轻”的领域。如果看LVIS的引用的话就会发现,这个数据集目前总共才40引用不到(by 2020.7.23,所以这里我就不对方法分类了,直接列举目前我所知道的所有研究。其中大部分研究都是重加权的相关算法,即通过设计loss来均衡头尾类别,这主要是因为在物体检测和实例分割中,重采样相关的研究往往实现上会更复杂,收益却更微薄。


1. 论文名:Learning to Segment the Tail, CVPR 2020

链接:https://arxiv.org/abs/2004.00900

代码:https://github.com/JoyHuYY1412/LST_LVIS

这是我们实验室学妹今年CVPR的工作,摘要图也被我盗来做这个系列的背景图了,所以我就优先介绍吧。也欢迎大家做长尾分类或实例分割的同学多多引用~ 本文大概也是目前我所知道的唯一一个非重加权的长尾实例分割算法了。

这篇工作的核心亮点有两处第一是把学习长尾分布的数据看成是一种增量学习(incremental learning,即我们是优先学会常见物体(头部数据,然后再基于对常见类别的知识,去认知少见的尾部类别。这其实是一种非常接近人类思维的学习方法。这个工作的学习流程如下图,将类别根据出现频率依次排列,并划分为不同的学习阶段,依次从易到难的学习所有类别。

链接:https://arxiv.org/abs/1708.02002

代码:https://github.com/clcarwin/focal_loss_pytorch

Focal Loss虽然不是专门用来解决长尾分类的,但是因为其Hard-Example Mining的特性刚好和长尾分类对尾部数据的欠拟合所契合,因此也可以作为长尾物体检测和实例分割的baseline。其实现为如下的FL公式

链接:https://arxiv.org/abs/2003.05176

代码:https://github.com/tztztztztz/eql.detectron2

这篇文章是2019年LVIS数据集比赛的冠军。其本质也是一种Re-weighting的算法,通过在计算loss时对尾部类别的加权来实现长尾检测和分割。关于这个研究的详细介绍,可以参考论文原作者的知乎回答:https://www.zhihu.com/question/372070853/answer/1082980270

4. 论文名:Overcoming Classifier Imbalance for Long-tail Object Detection with Balanced Group Softmax, CVPR 2020

链接:https://arxiv.org/abs/2006.10408

代码:https://github.com/FishYuLi/BalancedGroupSoftmax

这篇也是一个我非常喜欢的工作。该作者和Decoupling(参考系列文章之二)的作者同时发现了一个相同的现象,即在长尾分布中分类器参数的模长并不是均匀分布的,而是和类别的出现频率成正相关,即head的类会有更高的模长。这其实也是对头部过拟合的一种体现。但不同于Decoupling作者直接对模长归一化,本文的作者采用了按模长量级分类,仅对同一量级的类别logits计算softmax,而不是所有类别一起计算softmax。同时不忘对background类做个特殊处理,单独算为一类。其示意图如下,详细的解读也可以参考知乎回答:https://zhuanlan.zhihu.com/p/158216159

链接:https://arxiv.org/abs/2005.08455

这篇工作也是对softmax做了改进,提出了concurrent softmax,但不同于上文,该工作主要是基于类别间的并发率对loss做了调整。因为传统softmax会在训练时抑制所有非ground-truth类,而当数据不均衡时,很多时候尾部类别很可能是某个头部类别的子类,或者是非常相近的类别,这时候就不该过多的抑制这些类,即便他们不是ground-truth。为了解决这个问题,作者提出了concurrent softmax,对和ground-truth类别有很高并发率(concurrent rate)的类别,给予更少的抑制。concurrent softmax的定义如下

是从数据中统计出来的类别
和类别
的并发率(concurrent rate:类别
的物体被标记为
的概率。注意该文章并不是在LVIS数据集上做的实验,所以虽然研究的也是长尾分布,但却不能算是同一个setting。关于具体详细的计算过程,就期待作者早日公布代码吧。

本文地址:http://ww.kub2b.com/tnews/4886.html     企库往 http://ww.kub2b.com/ ,  查看更多

特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。

 
 
更多>同类生活信息

文章列表
相关文章
最新动态
推荐图文
生活信息
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号