推广 热搜: 百度  企业  搜索引擎  可以  上海  选择  哪些  未来  使用  技术 

Decoupling Representation and Classifier for Long-Tailed Recognition

   日期:2024-12-31     作者:m3e69    caijiyuan  
核心提示:原文代码 本文探讨了深度学习在长尾分布数据集上的分类问题,并提出了将表示学习和分类器学习分开的方法。通过实验发现&#x

原文
代码

本文探讨了深度学习在长尾分布数据集上的分类问题,并提出了将表示学习和分类器学习分开的方法。通过实验发现,即使使用最简单的平衡采样方法,也可以获得高质量的表示学习结果,并且只调整分类器即可实现强大的长尾识别能力

本文提出了一种学习表示以实现长尾识别的方法。在长尾分布下,训练集中的某些类别的样本数量非常少,因此模型很难对其进行准确分类。为了解决这个问题,本文提出了多种重采样策略、损失加权和边界的正则化等方法来提高模型性能。此外,本文还介绍了如何将表示学习与分类器学习分离,以便更好地理解哪些因素对于长尾识别至关重要。

本文提出的改进方法包括(1)实例平衡采样、类别平衡采样、平方根采样和渐进平衡采样等多种采样策略(2)基于交叉熵损失函数的学习表示和分类器联合优化方法(3)使用最近邻均值分类器和τ-归一化分类器等非参数方法来进行分类器微调(4)学习可扩展的权重缩放因子以调整决策边界

对于不同的采样策略和学习方式的比较:作者在ImageNet-LT数据集上比较了不同采样策略和学习方式的效果,包括联合训练和分离训练两种方式。结果表明分离训练的方式比联合训练更有效,其中以重新初始化并重新训练分类器(cRT)和τ-归一化分类器(τ-Norm)效果最好

对于不同的分类器平衡方法的比较:作者在ImageNet-LT数据集上比较了不同的分类器平衡方法的效果,包括非参数化的最近邻均值法(NCM)、重新训练分类器(cRT)和τ-归一化分类器(τ-Norm)。结果表明,τ-归一化分类器的效果最好,其次是重新训练分类器,而NCM的效果最差。

本文地址:http://ww.kub2b.com/tnews/3637.html     企库往 http://ww.kub2b.com/ ,  查看更多

特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。

 
 
更多>同类生活信息

文章列表
相关文章
最新动态
推荐图文
生活信息
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号