LSTM再度崛起:扩展LSTM模型挑战Transformer的优势
原文英文,约900词,阅读约需4分钟。发表于: 。Can LSTMs become the de facto standard for Language Modeling tasks once again?
LSTM曾经是语言建模的标准,但被Transformer架构超越。Sepp Hochreiter最近的xLSTM论文引入了新的模块,以解决原始LSTM的局限性。xLSTM网络在语言模型任务中表现优于其他模型,并在处理较长序列时保持稳定性能。它具有可扩展性,可以与基于Transformer的模型竞争。时间会证明LSTM是否会重新获得重要地位。