TPAMI 2025 | 语言启发的少样本类增量学习关系迁移

论文信息

题目:Language-Inspired Relation Transfer for Few-Shot Class-Incremental Learning
语言启发的少样本类增量学习关系迁移
作者:Yifan Zhao, Jia Li, Zeyin Song, Yonghong Tian

论文创新点

  1. 语言启发的关系迁移: 提出了一种新的语言启发的关系迁移(LRT)范式,通过图关系转换模块将预训练的文本知识迁移到视觉领域,并结合文本-视觉原型融合模块进行特征表示。
  2. 上下文提示学习: 引入了上下文提示学习策略,用于在少样本情况下快速对齐文本和视觉领域,缓解领域差距。
  3. 想象对比学习: 提出了想象对比学习策略,通过混合图像和文本标签生成虚拟类,缓解多模态对齐中文本数据不足的问题。

摘要

通过观察少量样本来描述新类别是人类学习系统的固有能力