文章探讨了大型语言模型(LLM)在幽默生成方面的不足。作者指出,LLM在处理明确答案的任务时表现良好,但在幽默和多义性上存在局限,无法随机生成笑话,常常重复经典笑话,导致幽默感缺失。此外,AI的幽默理解和生成能力受限于训练数据,难以适应不同文化的笑话风格。
本研究探讨深度视觉模型的可解释性,提出了解释链(CoE)方法,通过自动解码视觉概念,创建全球概念解释数据集,并设计多义性解开与过滤机制。实验结果表明,CoE在解释性得分上平均提高了36%。
本文介绍了一种结合词义消岐模型的方法,用于解决中文词网和光点物体作为 proper names 时的歧义问题。该模型利用了词网的结构和注解的优势,在常见名词和 proper names 上取得了竞争结果。此外,该模型还有助于未来词汇资源的开发。
本文讨论了emoji在法律案件中的作用和影响,包括股票交易、买卖纠纷和合同纠纷等。文章指出了emoji的多义性和容易被误解的问题,强调了其重要性和使用的注意事项。
我们提出了一个任务无关的框架来通过询问用户澄清问题来解决模型中的歧义。我们的方法在确定何时需要澄清、确定要问的澄清问题以及通过澄清获得的新信息方面都取得了显著成果,并对模型的不确定性进行了估计。我们的方法在准确识别需要澄清的预测方面始终优于现有的不确定性估计方法,使系统能够在仅允许在10%的示例上进行澄清时将性能提升两倍。
Refuel是一种用于回答开放式问题中多义性的模型,可同时预测多个答案,使用多个来源的证据进行适应性预测,并提出一种名为往返预测的方法。该模型在AmbigQA数据集上实现了新的最先进性能,并在NQ-Open和TriviaQA上展示了有竞争力的性能。
完成下面两步后,将自动完成登录并继续当前操作。