表 1 展示了我们的模型在使用 COCO 基础进行微调时的性能。使用 COCO 基础类别进行微调意味着,在使用我们的伪边界框训练模型后,我们进一步使用人工提供的 COCO 基础类别边界框标签来训练检测器,这与我们的基线训练过程相同。
使用 COCO 基础类别对模型进行微调后,我们采用伪标签预训练的方法在新类别上的表现比我们最强的基线方法(Zareian 等人)高出8% 的 AP 。当不使用 COCO 基础类别进行微调,仅使用生成的伪标签进行训练时,我们的方法在新类别上达到了 25.8% 的 AP,仍然比 SOTA 方法(Zareian 等人)高出3% 的 AP。
对于开放词汇对象检测器而言,泛化到广泛数据集的能力也至关重要,因为它能让检测器在实际应用中直接作为开箱即用的方法使用。表 2 展示了检测器对不同数据集的泛化性能,其中我们的方法和基线方法均未使用这些数据集进行 手机号数据库列表 训练。由于 Objects365 和 LVIS 拥有大量多样化的对象类别,因此在这些数据集上的评估结果更能体现泛化能力。
结果表明,当两种方法均使用 COCO 基础类别进行微调时,我们的方法在所有三个数据集上均取得了优于 Zareian 等人的方法的性能。即使不使用 COCO 基础类别进行微调,我们的方法在 Objects365 和 LVIS 数据集上的表现仍然优于Zareian 等人(使用 COCO 基础类别进行微调)。
除了定量结果之外,我们还在图 6 中提供了一个案例研究,以展示我们的模型提供的一些预测边界框。