一文通透TTT:让RNN的隐藏层变成可学习的函数——继mamba之后也想超越Transformer
原文中文,约2800字,阅读约需7分钟。发表于: 。TTT出来有一段时间了,让我确定要写TTT解读的,是源于我司LLM论文100篇课程群里的一学员辰子说,“校长 最近的TTT考不考虑讲一下”故当时想着:解读完mamba2之后,则解读open-television、我司7方面review微调gemma2,再接下来是TTT、nature审稿微调、序列并行、Flash...
TTT是一个新的模型,旨在将长上下文压缩为固定大小的隐藏状态。与RNN不同,TTT能够有效地捕捉标记之间的底层结构和关系。TTT使用自监督学习将历史上下文压缩为隐藏状态,以用于预测。该模型通过基于自监督损失更新权重进行训练。TTT在压缩长上下文的同时保持了效率和质量,展现了有希望的结果。