AIxiv报道了一种新型注意力机制——多矩阵分解注意力(MFA),该机制显著降低了语言模型的推理成本,并提升了性能。MFA在内存使用上节省高达93.7%,兼容多种位置编码,解决了大语言模型的显存瓶颈,推动了其应用。
完成下面两步后,将自动完成登录并继续当前操作。