本研究探讨了神经检索模型如何编码与任务相关的属性,特别是词频。通过对西班牙语和中文数据集应用激活修补方法,确认了词频信息在不同语言中的普遍性,并强调了信息检索的可解释性和机器学习研究的可重复性。
本文讨论了概率及其公理,研究随机现象,定义事件的概率为有利结果数与总结果数的比值。介绍了集合的基本概念、运算及性质,包括并集、交集和补集。探讨了条件概率和贝叶斯定理,并提供了实际应用示例,展示如何计算事件的概率。
概率论研究随机现象,通过重复实验得出不同结果。事件A的概率为有利结果数与总结果数之比。基本公理包括:概率非负、全集概率为1、并集概率公式等。条件概率和贝叶斯定理用于更新事件的概率。
在数学和计算机科学中,证明是基于公理和逻辑推理的正式论证。有效的证明需遵循特定逻辑框架,确保假设一致、逻辑步骤合理、结论明确。验证证明的步骤包括识别逻辑系统、验证假设、检查逻辑步骤和评估结论,以确保证明的正确性。
该论文提出了Vote'n'Rank框架,比较多任务基准测试中的系统表现,研究公平的投票规则及其在不同领域的应用。通过分析大型语言模型的投票行为,揭示了人类与LLMs在决策中的差异,强调了谨慎整合LLMs于民主进程的重要性。同时,探讨了投票规则的解释性和设计挑战,提出了基于数据学习的聚合规则,推动了计算社会选择理论的发展。
本研究针对现有多样性度量方法的不足,系统回顾了多样性度量的现有方法,并提出了可靠度量应具备的单调性、唯一性和连续性三大公理。虽然提出了符合这些公理的测度示例,但它们的计算复杂度过高,实际应用有限,因此提出了构造适用于实际的多样性度量的开放问题。
我们提出了一种模型无关的全局机制可解释性方法,通过应用 Shapley 值理论,定量衡量了具有鲁棒特性和非鲁棒特性的预测能力,并在信息理论框架下解释了图像模型的扰动鲁棒性机制。
这篇文章介绍了一种通过公理训练来教授Transformer模型因果推理的方法。研究团队通过构建数据集、损失函数和位置嵌入来实现公理训练。他们发现,训练在简单链上的模型可以泛化到更大的链上,但无法泛化到更复杂的场景。然而,如果在混合数据集上训练模型,则可以很好地泛化到各种评估场景。此外,他们还发现位置嵌入对于实现因果泛化非常重要。该方法还可以应用于解决更困难的问题,如根据因果关系分辨相关性。该研究提供了一种新的范式来教授模型学习因果推理。
本文研究了从人类偏好中学习奖励函数的算法,发现基于部分回报的偏好可以产生高度优化的奖励函数,但不理想。采用基于贪心法的最大化奖励函数的方法更为简单和合适。同时,将大型语言模型与强化学习结合进行模型微调也得到了更清晰的解释。
本文介绍了OWL,一个在OWL-Instruct数据集上训练的大型语言模型,通过混合适配器策略提高参数效率调优。作者评估了OWL在OWL-Bench和IT基准上的性能,并展示了其在IT任务上超越现有模型的表现。研究为革新IT操作技术的大型语言模型提供了深入见解。
该文章介绍了在Isabelle证明助手中形式化处理高阶逻辑的方法,以及通过样例证明描述高阶逻辑的公理和规则。该方法适合对高阶逻辑和证明助手感兴趣但不想学习更复杂的Isabelle/HOL与较重自动化的人。文章还讨论了在课堂环境中教授这一主题的经验。
本文介绍了非公理术语逻辑(NATL)作为人工智能领域中的理论计算框架,并将其与阿里斯托德的术语逻辑和现代分布式表示或嵌入的语义系统结合。文章提供了使用NATL的定性分析和几个应用案例及相关问题。
完成下面两步后,将自动完成登录并继续当前操作。