本研究提出了一种信息瓶颈语言模型(IBLM),通过压缩内部表征来提升模型的泛化能力。引入了门控相变(GAPT)算法,实现了记忆与压缩的自适应切换,实验结果表明GAPT显著提升了模型性能。
完成下面两步后,将自动完成登录并继续当前操作。