本文从贝叶斯认识论角度探讨语言模型的知识,研究其在不同信息量和证据可靠性下的信心调整。结果表明,模型在真实证据下遵循贝叶斯假设,但在其他证据类型下表现不佳,可能受到对黄金证据的偏见和相关性依赖的影响。
本研究运用动态主题建模技术分析了哥伦比亚及拉丁美洲的哲学发展,发现《理念与价值》期刊主要关注价值理论、认识论和科学哲学,历史性文章数量保持稳定,为未来研究提供了新视角。
本研究提出了一种新型生成与测试框架,显著提高了逻辑程序求解器的效率,测试候选方案数量减少,求解器性能提升约3.3倍,解决了91%的更多实例。
本研究揭示了语言模型在区分事实、信念和知识方面的不足,特别是在医疗、法律和新闻领域。通过KaBLE数据集评估,发现模型在处理虚假场景和个人信念任务时表现不佳,并对第一人称和第三人称信念存在偏见,强调了改进的必要性。
研究调查了100位哲学家和计算机科学家,探讨大型语言模型在知识理解上的不足。结果显示,LLMs在逻辑推理、语义理解和知识库可靠性方面存在问题,尤其在常识推理和抽象概念理解上与人类有差距。尽管LLMs能生成流畅文本,但在多义一致性上仍显不足。
本研究提出了一种基于知识度量和信息论的量化信念变化框架,引入最小惊讶原则减少信息量。研究贡献包括通用信息论方法、满足AGM公理的信念变化运算符编码和量化度量方法。探讨了修订操作序列的迭代修订问题,并给出了一个基于知识度量的收缩运算符。
本研究提出了双层潜空间框架,解决了解耦表示学习中的争议问题。通过集成互信息约束和独立性约束于生成对抗网络中,该方法在定量和定性评估上均优于基线方法,提升了可解释性。
该研究介绍了一种新的框架,结合使用微调的BERT模型、两个刻板印象检测模型和基于词汇的方法,用于自动检测文本中的不公正。通过实证定性研究,展示了该框架在检测不公正时的应用。
本文介绍了GPT-4在语言任务中的出色表现,引发了关于其归属于语言或认知能力的争议。探讨了语言模型与哲学、认知科学、人工智能和语言学的关系,以及语言的组成性、语言习得、语义能力、基础、世界模型和文化知识的传输。语言模型的成功挑战了人工神经网络的假设,但仍需要进一步研究了解其内部机制。第二部分将探讨语言模型的最新发展和相关的实证方法和哲学问题。
本文探讨了逻辑、认识论和科学之间的相互关系,并提出了一个连接不同学科的框架。研究认为认知逻辑源自于物理、化学和生物逻辑的进化,并通过自然逻辑过程的步骤,解释了以人为中心的逻辑的产生。需要进一步研究自然现象与自然中的行动逻辑之间的机制细节。
第一性原理是古希腊哲学家亚里士多德提出的,它可以帮助我们从最根本的问题出发,但也有一些误区,比如它并不是万能药,也不能完全透过现象看本质。第一性原理思维可以帮助我们解决问题,但也要注意它不是唯一的,也不能保证结论是稳定的,最后,第一性原理思维也引出了一些哲学问题,比如认识论。
完成下面两步后,将自动完成登录并继续当前操作。