蚂蚁研究团队提出AlignXplore方法,通过强化学习动态理解用户偏好,提升个性化对齐能力。该方法通过归纳推理提炼用户行为中的偏好,逐步优化AI理解,实现高效灵活的个性化交互。
本文探讨了机器如何利用具象符号进行推理,提出了一种结合概率推理与谓词符号推理的新方法。研究表明,通过线性大小数据的联合分布,可以有效推广谓词逻辑的结果,并重新审视相关问题。
本研究解决了当前大语言模型在长上下文归纳推理评估中的不足,提出了MIR-Bench这一首个多次上下文归纳推理基准。该基准要求模型通过输入输出示例从多样数据格式中归纳输出,研究了模型在面对错误示例和思路链效应下的鲁棒性,并获得了有价值的发现。
本研究提出了一种新方法,结合归纳推理、逻辑编程和规则学习,显著提升了对“黑暗船舶”的识别效率,搜索区域小于传统方法,为海洋安全提供技术支持。
本研究解决了机器学习领域中理解神经模型输出背后的合理性这一复杂问题,尤其是在大语言模型和上下文学习的背景下。通过设计合成诊断任务,我们发现传统的输入归因方法在解释上下文学习中的归纳推理过程时存在一定的局限性,尤其较大模型的可解释性更为困难。研究表明,某些简单的输入归因方法表现最佳。
本研究探讨大型语言模型的归纳推理机制,发现模型的先验影响大于示例展示。评估三种推理策略在五个任务中的效果,结果显示去除示例时假设质量损失较小,突显了模型先验的潜力。
为了提升大型语言模型的推理能力,研究提出了一种新方法,称为MetAphysical ReaSoning。这种方法将推理视为三步骤的判别过程,并引入MARS基准测试来评估模型在推理变化方面的能力。评估显示,即使是最先进的模型也面临挑战,分析指出预训练可能在大规模概念分类中增强推理能力。
本文研究了大型语言模型在推理能力上的差异,发现在归纳推理方面表现优异,但在演绎推理中相对不足。这一发现为进一步研究提供了新的视角和方向。
最近的大型语言模型在逻辑推理能力方面表现不佳,尤其在复杂推理和否定情况下遇到困难,并有时忽视上下文信息。研究评估了多个语言模型,并提出了改进建议。
本文介绍了上下文感知的Abductive Rule Learner(ARLC)模型,用于解决抽象推理任务。ARLC具有新颖的训练目标,提供了更好的可解释性和准确性。ARLC允许编程的领域知识和学习数据分布的规则。在评估中,ARLC在内分布和未曾见过的属性-规则对测试中展示出最先进的准确性。此外,ARLC还验证了从2x2 RPM星座到未见星座的无缝迁移学习。
为了解决图神经网络在处理大规模图时的计算挑战,提出了映射感知的图压缩 (MCond) 方法。通过学习原始节点到合成节点的映射,将新节点整合到合成图中进行学习。MCond 在归纳推理中有效,推理速度提高了121.5倍,存储需求降低了55.9倍。
本文测试了5种预训练大型语言模型在图形推理问题上的表现,通过10个不同的图形遍历问题,发现了模型的限制和偏见,并提出了一种新的提示技术PathCompare,能显著提高模型性能。
为了解决图神经网络在处理大规模图时的计算挑战,提出了映射感知的图压缩(MCond)。MCond通过学习原始节点到合成节点的映射,实现高效的信息传播。实验证明,MCond在归纳推理中有效,推理速度提高了121.5倍,存储需求降低了55.9倍。
本研究测试了几种大型语言模型(LLMs)在解决认知科学文献中的演绎推理问题方面的能力。结果表明,LLMs在传统形式上解决这些问题的能力有限,且具有推理偏见。
本研究测试了几种大型语言模型(LLMs)在解决认知科学文献中的演绎推理问题方面的能力。结果表明,LLMs在传统形式上解决这些问题的能力有限,且具有独特的推理偏见。后续实验未能改善模型性能。
完成下面两步后,将自动完成登录并继续当前操作。