本文提出了一种新的异构自适应联邦低秩适应(HAFL)框架,旨在解决联邦微调大语言模型在多样化数据集上适应特定任务时的计算和通信挑战。研究表明,该方法通过重要性参数截断和冻结方案,实现了快速收敛和低通信成本,同时保持了模型性能。
完成下面两步后,将自动完成登录并继续当前操作。