研究人员开发了一种多任务学习模型,将讽刺检测与立场检测结合,提升了跨目标立场检测能力。该模型通过中间训练方法将讽刺知识转移至立场任务,取得了基准数据集的最佳结果,尤其在立场训练数据有限的情况下表现优异。
该研究探讨了社交媒体立场检测的准确性问题,提出通过讽刺检测进行迁移学习的方法。利用BERT和RoBERTa模型结合卷积BiLSTM,显著提高了立场检测的表现,尤其在处理讽刺文本时,F1-score有明显改善,显示出该方法的潜在价值。
本研究提出了“CoVer”框架,利用小型语言模型(SLM)进行逻辑一致性验证,以降低对大型语言模型(LLM)的依赖,并提升社交媒体立场检测的性能。
本研究探讨社交媒体谣言与立场检测的互补性,提出了一种基于大语言模型的多实例学习方法,并通过微观博客传播模型进行弱监督。实验结果表明,该方法在多个数据集上表现优异。
本研究探讨了多模态场景中的立场检测,评估了视觉语言模型在七种语言上的表现。结果表明,这些模型更依赖文本,并且在多语言环境中预测一致性较好,为相关技术的发展提供了新见解。
本研究介绍了FarExStance,一个用于波斯语可解释立场检测的新数据集。微调的RoBERTa模型在立场检测中表现最佳,而Claude-3.5-Sonnet在解释质量上表现突出,对波斯语立场检测具有重要意义。
本研究探讨了主观自然语言处理中的意见分歧,采用多视角分类模型,结果表明其在立场检测任务中优于传统方法,强调包容性视角对负责任和伦理AI的重要性。
本研究通过ORCHID语料库解决了中文立场检测和对话摘要任务的数据集缺乏问题。该语料库包含1218场辩论及标注数据,展示了其挑战性,并揭示了立场检测与摘要整合的潜力。
本研究提出了立场转化器(Stanceformer),通过目标感知矩阵增强目标注意力,提升立场检测性能,并具备良好的领域泛化能力。
本教程介绍了立场检测的最新研究进展和开放研究方向,对研究人员和实践者有重要指导作用。立场检测是一个新兴的研究课题,在各个领域中有广泛应用。教程包含基本概念、问题、方法和资源,并涵盖了应用领域。对立场检测、社交媒体分析、信息检索和自然语言处理领域的研究人员和实践者有帮助。
该研究通过引入COT嵌入改进了大型语言模型在社交媒体上的立场检测性能。研究发现文本编码器可以利用COT推理,但在依赖领域特定模式时可能会忽视误导性的COT推理。该模型在多个社交媒体数据集上实现了最先进的性能。
完成下面两步后,将自动完成登录并继续当前操作。