本文提出了一种新的动作检测方法,利用预训练的图像语言模型和时空上下文信息生成文本特征,解决了现有方法在未见动作类别上的泛化能力不足的问题。实验结果表明该方法在多个数据集上表现优异,有望在真实场景中推动动作检测技术的应用。
CLIP2Video使用预训练的图像语言模型,通过两个具体阶段的框架,在相对较少的数据集上进行训练,实现了最新的检索准确性记录。
CLIP2Video网络采用预训练的图像语言模型,在相对较少的数据集上进行训练,并通过两个具体阶段的框架来提升多模态相关性。在多个基准测试中实现了最新的检索准确性记录。
完成下面两步后,将自动完成登录并继续当前操作。