通过隐含组合进行算法归纳的任务无关架构
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
研究发现,Transformer语言模型在学习离散算法方面的能力有限,效果不如重新学习所有子任务。复杂性理论的定理证明了在记忆前馈模型上的梯度下降可能在数据效率上低效。
🎯
关键要点
- 研究分析了 Transformer 语言模型在学习离散算法方面的能力。
- 引入了两个需要组合多个离散子任务的新任务进行测试。
- 在从头训练 LLaMA 模型及引导训练 GPT-4 和 Gemini 时,度量了学习的基本组合。
- 观察到最先进的 Transformer 语言模型的组合能力非常有限。
- 样本规模效果比重新学习所有子任务的效果要差。
- 提出了复杂性理论的定理,证明了记忆前馈模型上的梯度下降在数据效率上可能低效。
➡️