大型语言模型永远无法成为通用人工智能:证明
💡
原文英文,约200词,阅读约需1分钟。
📝
内容提要
文章讨论了大型语言模型(LLM)无法成为通用人工智能(AGI)的原因。通过复杂性理论,作者指出LLM的运行复杂度为$O(n)$,而人类在解决某些问题时(如判断字符串是否为回文)至少需要$O(n)$时间。因此,LLM无法在$O(1)$时间内解决这些问题,显示出其不具备人类的解决能力,无法成为AGI。
🎯
关键要点
-
大型语言模型(LLM)的运行复杂度为O(n),其中n是输出的长度。
-
假设LLM是通用人工智能(AGI),则它能够解决人类能解决的任何问题。
-
判断一个字符串是否为回文的问题,至少需要O(n)的时间来解决。
-
由于该问题的输出长度是常数,LLM必须在O(1)的时间内解决该问题,这导致矛盾。
-
因此,LLM无法解决人类能够解决的问题,证明其不是AGI。
❓
延伸问答
大型语言模型(LLM)为什么无法成为通用人工智能(AGI)?
因为LLM的运行复杂度为O(n),而人类在解决某些问题时至少需要O(n)的时间,LLM无法在O(1)时间内解决这些问题。
判断字符串是否为回文的问题有什么复杂性要求?
判断一个字符串是否为回文的问题至少需要O(n)的时间来解决。
LLM在解决问题时的时间复杂度是什么?
LLM的运行复杂度为O(n),其中n是输出的长度。
如果LLM是AGI,它应该具备什么能力?
如果LLM是AGI,它应该能够解决人类能解决的任何问题。
文章中提到的矛盾是什么?
矛盾在于LLM必须在O(1)时间内解决回文判断问题,但实际上需要O(n)时间。
为什么LLM不能解决人类能够解决的问题?
因为LLM的复杂度限制使其无法在必要的时间内解决某些问题,证明其不是AGI。
➡️