本研究提出了一种新方法,通过概念对齐解决开放词汇对象检测中的未见类别测试问题,显著提升了COCO和LVIS基准的检测性能与计算效率。
本研究提出了一种视觉-语义图匹配网络(VSGMN),旨在提升传统零样本学习在未见类别识别中的表现。实验结果表明,VSGMN在多种场景下优于现有方法,具备实际应用潜力。
北京大学提出多模态提示学习方法,利用提示词教大模型理解人物交互关系,通过视觉空间线索和条件提示提高泛化能力。研究团队还提出零样本人物交互检测新框架,实验证明在未见类别上取得最佳性能,具有潜力。
完成下面两步后,将自动完成登录并继续当前操作。