CMAT:增强小型语言模型的多智能体协作优化框架
原文中文,约400字,阅读约需1分钟。发表于: 。我们提出了一个新的通信代理框架,结合多智能体系统和环境反馈机制,提供了一种可扩展方法来探索合作行为。尽管参数较少,我们的 TinyAgent-7B 模型表现与 GPT-3.5 相当,这意味着大规模语言模型在效率和效果上取得了实质性改进。
AgentTuning是一种提高大型语言模型代理任务能力的方法,同时保持其一般能力。AgentTuning通过使用AgentInstruct与通用领域的开源指令相结合的混合指令调整策略对Llama 2系列进行了指令调整,得到AgentLM。评估结果显示,AgentTuning能够提升语言模型的代理能力,AgentLM-70B在未知代理任务上与GPT-3.5-turbo相媲美。