囿于数据少?PaddleDetection少样本迁移学习助你一键突围!
目标检测是非常基础和重要的计算机视觉任务,在各行业有非常广泛的应用。然而,在很多领域的实际落地过程中,由于样本稀缺、标注成本高或业务冷启动等困难,难以训练出可靠的模型。
在目标检测这类较为复杂的学习任务上,样本不足带来的挑战更加棘手,因为模型复杂度高意味着对训练数据量有更高的要求,否则很容易导致模型过拟合。应对这类问题,一类常见的思路是迁移学习,即依赖资源丰富的源数据集或强大的预训练模型,为下游任务提供额外引导。而少样本学习是一类特殊的迁移学习任务,其针对的是每个标注类型仅有几十甚至几个样本的情况。
为了解决这个问题,飞桨联合百度研究院大数据实验室,发布两种少样本迁移学习的新算法,从不同角度应对标注不足的挑战,提升模型学习效果。
▎跨领域 Label Co-tuning 算法
该方法的主要思路是充分利用预训练模型的语义空间,挖掘其与下游任务的关联,计算出类别之间的关系作为下游任务的辅助语义标签,作为原始one-hot类别标签的补充。
▎领域内 Contrastive Tuning 算法
对比学习是一种通用的表征学习思路,可以学习样例级的判别特征,也可视为一种有效的数据增强策略。该算法针对目标检测的任务特性,实现patch级别的对比学习,以强化目标领域的表征学习效果。
快速体验
您可以下载 PaddleDetection 最新代码体验我们的算法。
https://github.com/PaddlePaddle/PaddleDetection/tree/develop
上述少样本学习算法在套件中高度封装,接口简单,只需使用我们提供的配置样例,或在原配置文件中添加少样本学习算法,即可使用算法训练。
具体可参照我们的使用说明
https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/few-shot
接下来,本文将从"跨领域 Label Co-tuning 算法"和"领域内 Contrastive Tuning 算法"两个方面来解读 PaddleDetection 少样本迁移学习新算法的方案技术。
01
跨领域 Label Co-tuning 算法
■ 算法原理
少样本学习的一个普遍思路是在预训练模型基础上进行微调,然而这种直接的方式面临明显的挑战。
挑战一: 当下游任务样本量太少时,很容易导致模型在目标数据集上过拟合,最终,微调后的模型泛化能力差。
挑战二: 在微调过程中,如果直接将预训练任务的分类头舍弃,重新初始化,会导致大量预训练模型所学到的信息丢失。而这些信息可能对于预训练模型知识迁移至目标数据集很重要。
针对以上的问题,清华大学的 Kaichao You 等人在 NeurIPS2020发表了 Label Co-tuning[1]算法,该算法是一种针对图像分类任务的迁移学习算法。其主要思路是对预训练类别空间 Ys 和目标任务类别空间Yt的关联进行建模。在微调之前,预先学习预训练类别 ys∈Ys 和 yt∈Yt 之间的条件概率分布,即 p(ys|yt),作为目标类别的一种辅助语义标签。这样可以有效的降低少量目标样本过拟合其标签的风险,同时预训练模型的分类头也将被重用,提供目标数据在 Ys 类别空间的预测结果,充分挖掘了预训练模型的迁移潜力。
以下为一个直观的例子,演示为何 Label Co-tuning 方法能够有效。如果我们的预训练数据集是具有1000类物体的 ImageNet ,而下游目标任务是 COCO 图像分类。此时,上下游任务之间存在大量有关联但又不完全相同的类别。如 COCO 中有"大象"这一类别,而 ImageNet 则粒度更细,包含"印度象"和"非洲象"。
由于不同数据集中,图像本身的视觉特征也存在一定差异,那么即使在类别的语义概念上有明显重合,其真实关联多数情况下也是比较隐晦、复杂,难以通过人工经验来指定。所以比较严谨的方式是通过学习的方式,建立起 Ys 和 Yt 两个完整类别空间的概率分布关系。如下图所示。
学习到这种类别关系后,对于每个目标数据集的样本(xi,yi),我们在微调过程中除了要拟合其原始的 one-hot 类别标签 yi 外,还会利用一个额外的预训练任务分类头拟合辅助语义标签 p(ys|yt=yi),这个辅助标签的长度和预训练分类数相同,是一个 soft label。
■ 算法实现
我们对该原型算法进行了改造和扩展,使其适合目标检测任务,并在 PaddleDetection 的经典结构 Faster RCNN 上添加了对 Label Co-tuning 算法的支持。在上下游类别关系矩阵的计算中,考虑到目标检测任务的特点,我们使用每个 patch,而非每张图片作为一个样本。具体而言,需要从目标任务的训练数据中,直接提取出 bounding box 的标注,并在前向计算中获得该 ground truth 区域在预训练分类头上的预测结果,同时结合其自身标注的目标类别,来一起计算关系矩阵签 p(ys|yt)。需要注意的是,Label Co-tuning 虽然利用了完整的预训练模型,但并不需要预训练任务的数据集,关系矩阵是完全利用目标任务训练集计算出来的。
同样的,在微调过程中,我们也在 bounding box 粒度上应用辅助语义标签。对于每一个需要预测的检测框,我们除了拟合原始的类别标签和位置外,还会额外的拟合其在预训练语义空间上的 soft label。
02
领域内 Contrastive Tuning 算法
■ 算法原理
对比学习是一种很有潜力的自监督表征学习方式,一般被用于预训练阶段学习图像的通用的视觉表征。而近期的一些研究表明,在常规的监督学习任务中,合理引入对比学习也能提升模型的判别效果,如分类、检测、分割等。基于这一思路,南加州大学的 Bo Sun 等人实现了检测框粒度上的自监督学习方法[2],可以显著提升少样本目标检测效果,并将成果发表在 CVPR 2021。
该算法本质上有别于通常的样本级对比学习,通常的对比学习选择将每个样本的不同变换作为正例,其他样本作为负例。而在检测任务上,该方法引入了类别级的对比学习,但以每个 bounding box 为样本单元,即属于同类别的检测框之间互为正例,而不同类别则作为负例。
通过这样一种类别对比的方式,算法在微调过程中引入额外的 loss 来引导模型对同类 patch 学习更加紧密的表征,而不同类 patch 的表征则区别更加明显,如下图所示。
■ 算法实现
和Label Co-tuning算法相比,这种 Contrastive Tuning 的方法更加通用,虽然没有改进对预训练模型的复用,但其优点是对任务所做的假设更少,例如不需要依赖预训练任务和目标任务之间的潜在关联。在原始论文中,该算法仅适用于二阶段的 Faster RCNN 模型。我们对算法进行了扩展和改进,使其能够应用于 PaddleDetection 最新的 PP-YOLOE 系列模型。
PP-YOLOE 系列模型具备非常出色的精度和效率,同时模型结构也大为精炼。但对于 Contrastive Tuning 来说,这种单阶段模型由于简化了 Anchor 生成和筛选的过程,使得中间过程中存在大量无效的 patch,增加对比学习的计算负担。
针对此问题,我们引入了一种均衡策略,从采样和损失两方面对 Contrastive Tuning 的计算效率进行优化,同时不影响计算精度。具体来说,在前向计算的采样过程中,我们只对正样本 patch 全部保留,而对负样本 patch 选择随机采样,来保持正负样本的合理配比。在计算 Contrastive loss 时,我们根据当前 patch 的 IoU 得分来设定阈值,仅对得分高于阈值的样本点进行 loss 回传。
03
算法效果
▎项目传送门
PaddleDetection 少样本学习算法体验
https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/few-shot
PaddleDetection 官方库
https://github.com/PaddlePaddle/PaddleDetection
欢迎大家扫描下方二维码加入 PaddleDetection 官方技术交流群~
飞桨公众号后台回复关键词: PaddleDetection ,获取更多学习资料包。
▎参考文献
[1] You, Kaichao, et al. "Co-tuning for transfer learning." Advances in Neural Information Processing Systems 33 (2020): 17236-17246.
[2] Sun, Bo, et al. "Fsce: Few-shot object detection via contrastive proposal encoding." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2021.
党内外闻名的团中央三胡是指谁?在共青团中央历任书记处第一书记的名字里面,胡姓是比较多的,如胡耀邦胡锦涛胡春华。而在共青团中央的历史上,还曾有团中央三胡的提法,而这种提法并非指上面的三位,而指的是时任共青团中央书
一分钟资讯华为苹果一加荣耀小米魅族,最新消息哈喽,我是毛小毛。关注我,每日带你了解最新数码资讯!一分钟资讯第422篇,感谢你的阅读。华为Mate50系列终发布时隔684天,华为终于在昨天更新了Mate旗舰手机系列。Mate5
保育员转岗做母婴护理,工作好不好找?保育员这个工作有人说属于家政服务业,其实不然但又有几分道理。因为保育员是在幼儿园从事儿童保健护理的岗位,但因为其专业能力覆盖6岁前幼儿,所以就业范围也因此更加广阔。近期,就有朋友因
今年尺度最大的5部影视剧,且看且珍惜2022年已过大半,影视电影层出不穷,许多现实题材的剧本涌入市场,而导演们为了迎合观众的猎奇心理,生生将这些大尺度剧集送到了观众面前。1冰雨火冰雨火为罪罚刑侦剧,罪罚刑侦剧最主要的
魔兽世界WLK怀旧服暴雪大规模封禁奥山挂机号,直接封到80级后魔兽世界怀旧服开放WLK前夕版本后,直升70级和DK小号玩家们很快发现了奥山战场似乎是升级和提升装备的最佳选择,奥山对冲平均十分钟一场便能获得大量经验和荣誉值。由于目前奥山战场收益
BLG中单冷少预测S赛Gen。G统治力太强,世界赛7成概率夺冠在LPL赛区冷少已经算得上是一位老将,在去年效力LNG时他职业生涯首次打进世界赛,并且打出了非常亮眼的表现。今年虽然离队后休息了一整个春季赛,不过到了夏季赛中途他收到了BLG抛来的
分享连续金铲铲之战连续登顶阵容周末被隔离,闲暇无聊开了几局金铲铲之战,用我个人比较迷信的阵容,结果运气也比较好,连续4局登顶,有图有真相!共5把1次第3,连续4把登顶我们来拆解一下这4局的阵容8人口1机器人3约
8号商城突变,孙尚香重做美哭,火舞新传说上线,有48碎片巨赚可乐要加冰,乔妹在你心,大家好我是小乔妹,每天为您分享有趣的王者荣耀新皮肤新版本,最新攻略等文章内容。王者荣耀中有很多皮肤都在进行优化重做,例如赵云的未来纪元公孙离的祈雪灵祝大乔的
世有伯乐然后有千里马谈谈369与Homme的化学反应说到369,在本赛季之前或许网友对他的最大印象就是karsa口中的圣经一个赛季练个纳尔那么难吗?但在本次夏季赛后,谈起369,或许网友除了纳尔圣经之外,也会记住他也是个进过一阵红极
怀旧游戏(千年手游)27心法满,熟人见一句好久没见你更新了,直接拉动了我的心弦,感谢同辈人的支持。他说我写得真切,很符合自身人设。其实对于八零后的人来说,或多或少都有些怀念的事人物,当年对于我们来说,那时
睡觉时多梦是咋回事?Q养生君,这半年间,我都睡不好。每个晚上会做四五个梦,而且早晨醒来几乎记得梦境里发生的所有事情。请问这是怎么回事?每个人都会做梦,只是有些人记得,而有些人忘了。一般来说,睡眠阶段可