大模型的规模扩展是否可持续?

原文约10600字,阅读约需26分钟。发表于:

GI何时会到来?如果我们能不断扩展LLMs++的规模(并因此取得更好和更通用的性能),就有理由期望到2040年(或更早)出现强人工智能,它能够自动化大部分认知劳动并加速人工智能研究。然而,如果扩展(scaling)不起作用,那么实现AGI的道路则会变得更加漫长、棘手。为全面探讨有关扩展的正反观点,我构造了两个虚构角色(正...

本文讨论了扩展语言大模型(LLMs++)对实现通用人工智能(AGI)的有效性和影响。正方认为,通过扩展模型规模、算法进步和硬件改进,有望在2040年之前实现AGI。反方则认为,数据不足、模型泛化能力有限以及基准测试的局限性可能阻碍了扩展的有效性。作者个人观点是,通过扩展+算法进步+硬件进步,有70%的可能性在2040年之前实现AGI。

相关推荐 去reddit讨论