源感知语义表示网络:增强音视频问答
原文中文,约300字,阅读约需1分钟。发表于: 。本研究针对音视频问答(AVQA)中复杂的多模态场景解析问题,提出了一种新颖的源感知语义表示网络(SaSR-Net)。该网络通过源级可学习的标记有效捕捉和对齐音视频元素,利用空间和时间注意机制简化音视频信息的融合,显著提升了在多模态场景中识别答案的能力。实验结果显示,SaSR-Net在Music-AVQA和AVQA-Yang数据集上超越了现有的最先进AVQA方法。
本研究提出了一种新颖的源感知语义表示网络(SaSR-Net),用于音视频问答中的复杂多模态场景解析。该网络通过可学习标记捕捉音视频元素,并利用空间和时间注意机制提升信息融合效果。实验结果表明,其在Music-AVQA和AVQA-Yang数据集上优于现有方法。