JSE(JSON结构表达)为AI系统提供了一种结构层,解决了JSON缺乏结构逻辑表达的问题。它通过符号操作和结构识别规则,使JSON不仅是数据容器,还能表达结构化意图,支持嵌套计算和声明性符号推理,适用于政策定义和决策图。
本研究提出了一种复杂度注释的第一阶逻辑推理数据集,旨在提升大语言模型对复杂算法的理解能力。该数据集包含35亿个标记,促进对模型学习符号推理过程的深入研究,增强算法能力的透明性。
本研究提出了一种名为GeoGen的管道,旨在提升多模态大语言模型在几何问题解决中的能力。GeoGen结合符号推理与多模态模型,能够自动生成几何图形的逐步推理路径,从而显著改善模型在几何推理任务中的表现。
本研究探讨了“神经-符号代码”概念,填补了神经网络与符号推理整合的研究空白,强调其在提升人工智能系统可信度和可解释性方面的重要性。
本研究提出了SymRTLO框架,结合大规模语言模型与符号推理技术,旨在提升RTL代码优化效果。该方法通过检索增强生成系统和抽象语法树模板进行代码重写,显著改善功耗、性能和面积,解决了传统方法在复杂设计约束下的挑战。
本文探讨了大型语言模型(LLM)在自然语言处理中的不准确性和逻辑不一致性,提出了一种结合符号推理与机器学习的神经符号方法,以提升LLM输出的连贯性和准确性。实验结果表明,该方法显著改善了LLM的语义和事实准确性。
本研究提出了一种新颖的符号推理方法Polygon,用于SQL查询的等价性证明和消歧义。Polygon通过低估近似推理和多种搜索,在超过30,000个基准测试中表现优于现有技术。
NeuSymPublish是一个结合神经网络与符号推理的多渠道出版平台,专注于智能内容创作与分发。它具备符号引擎、神经组件和跨平台发布功能,能够优化内容、分析趋势并自动调度发布,从而提高效率与一致性,确保内容符合各平台规范。
本研究探讨了大型语言模型在贝叶斯推理中的解释策略,发现思维链对生态有效策略反应不足,存在符号推理偏倚。这对改进机器学习辅助学习方法具有重要意义。
本文介绍了一种新型提示策略“草稿链”(CoD),旨在提高大型语言模型(LLMs)的推理效率。CoD通过减少冗长的中间推理输出,聚焦关键信息,达到与“思维链”(CoT)相似或更好的准确性,同时显著降低令牌使用和延迟。实验结果显示,CoD在多个推理任务中有效,令牌使用减少92.4%,符号推理准确率达到100%。
Google DeepMind的AlphaGeometry2(AG2)AI模型成功解决了84%的国际数学奥林匹克几何问题,超越了人类金牌选手的平均水平。AG2是AlphaGeometry(AG1)的升级版,采用了领域特定的形式语言和符号推理引擎。尽管表现优异,AG2仍有提升空间,尚未解决所有问题。
本研究提出了一种神经符号策略生成器,结合大型语言模型与符号推理,解决了大型语言模型在形式证明中的策略生成不足问题。通过分析人类解决奥林匹克不等式的方式,提出了两类策略并在数学竞赛中进行评估,取得了显著的性能提升。
Goedel-Prover是一种新型开源自动定理证明模型,结合了大型语言模型与符号推理能力,在多个数学证明基准上成功率提高了52.8%。
本研究首次提出了一种神经证书框架,针对连续时间随机动态系统,填补了现有概率验证方法的空白。该方法结合机器学习和符号推理,为非线性系统提供可达性、回避性和持续性规格的形式化概率界限,并在基准测试中展示了其有效性。
本研究提出了一种新颖的归纳模仿学习框架(ABIL),旨在解决现有模仿学习在开放环境中处理长时间任务的不足。ABIL结合数据驱动学习与符号推理,展现出在长时间任务中的数据效率和泛化能力,为符号规划提供了新思路。
AGI的标志是具备人类级的逻辑推理能力。Bagel团队研究了算术、常识和符号推理,发现推理时的计算效果优于训练时的计算,这推动了大型语言模型向更深层次的推理发展。
研究显示,大型语言模型在符号推理任务中表现优异。评估了Llama 2家族三个模型在不同难度数学公式上的能力。结果表明,增大模型规模和微调能显著提升性能,尤其在简单公式上。但即使是最大的微调模型,仍有挑战。
研究论文探讨了一种名为“思维链”(CoT)的提示技术对语言模型的有效性。研究发现,CoT对于数学和符号推理任务特别有帮助,但在开放式问题回答或常识推理等其他语言任务中效果不明显。研究结果可帮助开发者决定是否将CoT应用于语言模型应用中。
本研究提出了TRACE-cs系统,通过结合符号推理和大型语言模型,解决了课程调度问题中对比查询缺乏有效解释的难题。研究发现,混合方法提高了可解释人工智能的可靠性和准确性。
使用Quarkus的ML +符号推理演示:Drools+LangChain4j混合推理,将机器学习和符号推理相结合,实现互补,弥补机器学习的不足。
完成下面两步后,将自动完成登录并继续当前操作。