本研究提出了一种基于意图的听觉场景理解(II-ASU)方法,开发了听觉注意力驱动的大型语言模型(AAD-LLM),通过脑电图数据解码听众关注的说话者,实验结果表明其在多说话者场景中的表现优于传统模型。
完成下面两步后,将自动完成登录并继续当前操作。