大模型-MoA方法尝试
原文中文,约1500字,阅读约需4分钟。发表于: 。Together是想通过多个臭皮匠来顶一个诸葛亮,但是达到的效果是多个臭皮匠顶不了诸葛亮,只能达到多个臭皮匠中最强的那个臭皮匠的能力,再多的臭皮匠得出的结论99%也是臭皮匠的结论,只不过是5条臭皮匠的结论变成了10条。在大模型中,最重要的还是模型本身,其次是提示词,再次才是工程化,想通过工程化来提高模型回复的能力,这条路走的注定比前面两条路要更难。
该论文介绍了一种名为混合代理(MoA)的方法,通过多个代理之间的协作来提升大型语言模型的能力。然而,与MetaGPT相比,该方法的效果较差,因为MetaGPT的每个Agent都有经过精心编写的提示词。