ZeroMamba:探索零样本学习的视觉状态空间模型
原文中文,约300字,阅读约需1分钟。发表于: 。本研究针对现有零样本学习方法中视觉与语义互动不足的问题,提出了一种名为ZeroMamba的框架。该框架通过引入语义感知局部投影、全局表示学习和语义融合三个关键组件,显著提升了模型对未见类别的分类能力。实验结果表明,ZeroMamba在多个主流基准上表现优异,超越了现有的最先进方法。
本文探讨了零样本学习中的交叉域匹配问题,并提出了一种基于分支网络的方法来映射语义描述和视觉样本到joint空间,实现跨未知类别输入的优化过程。同时,还解决了ZSL中的模型偏差问题,取得了卓越的性能。