文献基本信息
- 标题:Open-Vocabulary Object Detection via Vision and Language Knowledge Distillation
- 作者:Xiuye Gu、Tsung-Yi Lin、Weicheng Kuo、Yin Cui
- 单位:Google Research、Nvidia
- 会议/期刊:ICLR
- 发表时间:2022年5月12日
- 代码:https://github.com/tensorflow/tpu/tree/master/models/official/detection/projects/vild
背景与意义
- 上图是一个zero-shot检测器的例子,在基础类别(紫色)上训练ViLD之后,可以使用新增类别(粉红色)的文本嵌入来检测训练数据集中不存在的新增类别。
研究方法与创新点
总览
- ViLD的整体设计如上图所示,其中预训练的图像编码器和预训练的文本编码器是CLIP预训练得到的。
训练阶段
- 先将图像标注区域的图像裁剪出来,通过预训练的图像编码器编码,得到标注区域的图像嵌入(红色部分),同时通过Mask R-CNN(backbone+RPN+RoI对齐支路)产生类别无关的区域嵌入(紫色部分),图像嵌入和区域嵌入需要进行知识蒸馏。
- 基本类别(绿色部分)转化成文本送入预训练的文本编码器,产生文本嵌入(绿色部分),将区域嵌入和文本嵌入进行点积,然后softmax归一化,监督信号是对应类别位置1,其余位置为0。
推理阶段
- 将基本类别和新增类别转化成文本送入预训练的文本编码器,产生文本嵌入(分别为绿色和蓝色部分),同时通过Mask R-CNN产生类别无关的区域嵌入,然后将区域嵌入和文本嵌入进行点积,然后softmax归一化,新增类别(蓝色部分)取最大值的类别为该区域的预测结果。
裁剪区域
- 将裁剪和调整大小的proposal(即
)定义为CLIP的图像输入,ViLD同时集成了
和
(更多的上下文)的裁剪区域,并且进行归一化,公式如下:
- 然后通过NMS保留置信度为前
名的区域。
- 该方法速度会非常慢,因为是一个一个区域送入CLIP的,其实就是最原始的R-CNN做法(这是可以改进的点)。
知识蒸馏
- 上图(a)是Mask R-CNN的框架,
个proposal送入头得到
个区域嵌入,然后送入分类器进行分类。
- 上图(b)是ViLD的框架,其中文本嵌入是通过预训练的文本编码器产生的,将
个需要进行蒸馏的proposal同时送入左分支和右分支,左分支的
个proposal经过归一化得到
个区域嵌入,和右分支产生的
个图像嵌入进行蒸馏(为了保证ViLD的区域嵌入和CLIP的图像嵌入映射空间一致),其他由Mask R-CNN产生的$N$个区域嵌入按照IoU给标签,其中没有匹配标签的标记为背景,并且给背景增加了一个可学习的嵌入(
)。
- 假设区域嵌入表示为
,
表示文本嵌入,
表示区域
的类别,那么ViLD-text分支的交叉熵损失函数为:
- 其中,
。推理阶段因为新增类别,
会变成
。
- ViLD-image分支的知识蒸馏函数为:
- 最终ViLD的训练损失函数为:
研究结论
- ViLD在新增类别上的精度大幅度超过之前的监督方法。
- 可视化说明了ViLD能够检测新增类别和基本类别的对象,并且新增类别有着高质量的边界框和mask。
存在的问题
- 训练量很大。
- 为了适配CLIP,将分类任务和定位任务解耦,导致Mask R-CNN部分需要将所有目标类别的语义和位置信息整合成一个,同时由于缺乏分类任务的指导,一定程度上引起了模型定位任务的表现下降。
- zero-shot分类部分整体来看更像是一个ensemble的方案,虽然本文这样设计的初衷是为了让两个分支分别侧重已知类别与未知类别的预测,但是只保留一个分支并不影响模型的功能,是否还能进行进一步的精简?
启发与思考
- zero-shot在图像分类、检测这些任务上具有媲美有监督方法的实力。
- ViLD给其他下游任务如何使用CLIP来做zero-shot做了示范,值得参考。
- 写作:“Introduction”部分开门见山,直接点明本文试图解决的问题和解决方案的关键,这样的写法值得学习。