多层感知器学习上下文
📝
内容提要
在这项研究中,我们发现多层感知器(MLPs)和密切相关的 MLP-Mixer 模型可以像 Transformer 模型一样有效地进行上下文学习,并且在一些涉及关系推理的任务中,MLPs 表现更优,这一结果挑战了以往对简单连通模型的一些假设。
➡️
在这项研究中,我们发现多层感知器(MLPs)和密切相关的 MLP-Mixer 模型可以像 Transformer 模型一样有效地进行上下文学习,并且在一些涉及关系推理的任务中,MLPs 表现更优,这一结果挑战了以往对简单连通模型的一些假设。