本文提出了一种新颖的务实元认知提示(PMP)方法,旨在提升澳大利亚和印度英语中的讽刺检测能力。研究表明,PMP在多个任务和数据集上表现优于其他策略,具有重要的应用潜力。
本研究提出了Commander-GPT框架,通过多模态信息将传统单模态讽刺检测任务拆分为六个子任务,F1分数提高了19.3%,显著增强了讽刺内容的识别能力。
研究人员开发了一种多任务学习模型,将讽刺检测与立场检测结合,提升了跨目标立场检测能力。该模型通过中间训练方法将讽刺知识转移至立场任务,取得了基准数据集的最佳结果,尤其在立场训练数据有限的情况下表现优异。
该研究探讨了社交媒体立场检测的准确性问题,提出通过讽刺检测进行迁移学习的方法。利用BERT和RoBERTa模型结合卷积BiLSTM,显著提高了立场检测的表现,尤其在处理讽刺文本时,F1-score有明显改善,显示出该方法的潜在价值。
本研究评估了七种大型语言模型在情感分析和政治倾向评估中的表现,结果显示GPT-4在这些领域表现可靠,但在情绪强度和讽刺检测方面仍需依赖人类专业知识。
本研究提出了一种新的多模态讽刺检测方法RCLMuFN,解决了文本与图像关系学习不足的问题,显著提高了检测准确性,实验结果表明其性能达到了最新水平。
本研究提出了一种常识增强的讽刺检测框架EICR,解决了现有方法中常识推理不足的问题。通过构建依赖图和引入自适应推理,取得了显著的实验效果。
本研究探讨了印地语-英语代码混合中的幽默和讽刺检测,采用原生样本混合和多任务学习方法,显著提高了检测精度,尤其在多任务学习框架下表现优异,为代码混合语言处理提供了新思路。
本研究分析了不同版本的GPT模型在讽刺检测中的表现。结果表明,精调的GPT-3模型在准确性和F1-score上最佳,而在零-shot情况下,GPT-4模型表现较好。各版本性能需重新评估。
本研究提出了一种结合音频、图像和视频的多模态讽刺检测方法,克服了仅依赖文本的信息不足,推动了该领域的发展。
本研究通过机器翻译和大型语言模型解决低资源语言讽刺检测中的数据不足问题。结果表明,较大模型表现更佳,最佳方法的F1分数达到0.765,接近原语言评分者的一致性。
本研究测试了生成预训练转换器(GPT)模型在检测自然语言中的讽刺的应用。结果显示,精调的GPT-3模型在准确性和F1-score方面表现优于之前的模型。零-shot情况下,GPT-4模型的准确性和F1-score较低。每个版本的模型性能可能会有所改善或恶化,需要重新评估性能。
本研究提出了一种基于CLIP引导的对比学习架构,用于多模态特征对齐。实验结果显示该模型在多模态讽刺检测和情感分析任务中优于基准模型,且无需外部知识,易于迁移到其他多模态任务。
本研究使用大型语言模型(LLMs)增强讽刺检测。通过整合情感线索和增强的LLMs到预训练NLP模型中,提高了讽刺检测能力。在SemEval-2018 Task 3数据集上评估,结果显示该方法显著增强了讽刺检测能力。
本文研究了文本挖掘中的讽刺检测,介绍了iSarcasm数据集,并指出现有方法的局限性,提出未来需要发展更优秀的检测方法。
完成下面两步后,将自动完成登录并继续当前操作。