本研究提出了AV-EmoDialog系统,能够分析音视频中的情感线索,从而生成更具回应性和同理心的对话。实验结果显示,该系统在情感和上下文回应方面显著优于现有的多模态大语言模型。
本文提出了一种基于学习的方法来检测真实和虚假的deepfake多媒体内容。通过分析音频和视觉模态的相似性以及情感线索来判断输入视频的真实性。实验结果表明,该方法在DeepFake-TIMIT和DFDC数据集上的AUC分别达到了84.4%和96.6%。
本研究使用大型语言模型(LLMs)增强讽刺检测。通过整合情感线索和增强的LLMs到预训练NLP模型中,提高了讽刺检测能力。在SemEval-2018 Task 3数据集上评估,结果显示该方法显著增强了讽刺检测能力。
完成下面两步后,将自动完成登录并继续当前操作。