通过 COmpressive Memory-Enhanced Dialogue sYstems (COMEDY) 框架,利用压缩记忆的概念将实际用户 - 聊天机器人交互转化为简洁的记忆格式,该研究证明 COMEDY 比传统的基于检索的方法更能产生细致而人类化的对话体验。
本文提出了一种新的上下文压缩方法,适用于在线场景中的Transformer语言模型。该方法通过轻量级条件LoRA对压缩上下文记忆进行操作,以减小内存和注意力操作。性能与完整上下文模型相当,但所需上下文内存空间仅为原来的五分之一。