本研究提出了LP-LM系统,旨在解决大型语言模型在问答中产生虚构问题的现象。通过Prolog语义解析,确保回答的可靠性。实验结果表明,LP-LM在简单问题上始终提供准确答案,优于传统大型语言模型。
本研究提出了一种名为OntoSCPrompt的两阶段架构,旨在提升知识图谱问答(KGQA)在新知识图谱上的泛化能力。该方法通过分离语义解析与知识图谱特定交互,并采用本体指导的混合提示学习策略,实验结果表明其在资源有效的情况下与先进方法性能相当,且能够有效泛化至未见领域的知识图谱。
本文研究了在数据稀缺场景下快速获取监督学习标签的挑战,提出了一种新颖的分层符号森林消化算法(DAHSF),该算法结合文本规范化和语义解析,显著优化了模型大小和内存使用,提升了执行速度,具有良好的应用前景。
本研究提出DART方法,通过重述、语义解析、评分和多类分类四个步骤,解决了现有AIGT检测器在黑箱大型语言模型检测中的低效问题,能够有效区分多种模型,展现出实际应用潜力。
企业智能知识问答助手(Chatbot)在亚马逊云上构建的案例介绍了技术架构和需求演化。通过集成大语言模型(LLM),Chatbot能够进行更好的语义解析和上下文推理,提供更人类化的回复。基于LLM的企业知识大脑系统结合了传统NLP模型和LLM的优势,提供一站式的智能知识服务。该系统还包括Confluence数据搜索接入、多路召回和重排、多语言集成等功能。Chatbot通过持续优化和迭代,能够高效提供客户服务和支持,提升企业效率和价值。
本文介绍了一种应用于低资源任务导向语义解析的新方法,通过用户交互收集话语来改进语义解析器。该方法结合了多个限制条件,包括缺少相关领域的相似数据集/模型和对未标记的自然语言要求保密性等。作者使用数据增强方法,在复杂的 SMCalFlow 日历数据集的低资源情况下,观察到与非数据增强基线相比,在前1个匹配中有33%的相对改进。
完成下面两步后,将自动完成登录并继续当前操作。