MuPT: 一个生成式的符号音乐预训练 Transformer
原文中文,约400字,阅读约需1分钟。发表于: 。本文探讨了大型语言模型(LLMs)在音乐的预训练中的应用。研究发现,LLMs 与 ABC 记谱法更加兼容,提高了音乐创作模型的性能。为了解决不同音轨间的错位问题,我们提出了一种名为 Synchronized Multi-Track ABC Notation(SMT-ABC Notation)的方法,旨在保持多个音乐音轨之间的一致性。我们的贡献包括一系列能够处理 8192...
本文研究了大型语言模型在音乐预训练中的应用,发现LLMs与ABC记谱法兼容,提高了音乐创作模型性能。提出了一种名为SMT-ABC Notation的方法,解决了不同音轨间的错位问题。研究结果表明音乐生成领域有前途,并为社区提供了丰富资源。