本文提出了一种用于长对话摘要的说话者增强的预训练方法,通过多轮对话的内在结构进行预训练,实验证明该模型在具有长上下文的基准测试中取得了最先进的性能,突出了方法的有效性。研究结果强调了构建多样化的预训练数据集的重要性。
完成下面两步后,将自动完成登录并继续当前操作。