SirLLM: 流式无限保留 LLM
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
该文章介绍了使用基于LLM的代理体系结构和人物和时间事件图生成高质量长期对话的机器-人类管道。通过人类注释者的检验和编辑,确保对话的长程一致性和对事件图的关联。实验结果显示,LLM在理解冗长对话和长程时间和因果动态方面存在挑战。使用长上下文LLM或RAG等策略可以提供改进,但仍然落后于人类的性能。
🎯
关键要点
-
文章介绍了基于LLM的代理体系结构和人物、时间事件图生成长期对话的机器-人类管道。
-
通过人类注释者的检验和编辑,确保对话的长程一致性和事件图的关联。
-
收集了一个包含300个回合和平均9K个记号的长期对话数据集。
-
提出了一个评估基准来衡量模型中的长期记忆,包括问题回答、事件摘要和多模态对话生成任务。
-
实验结果显示,LLM在理解冗长对话和长程时间、因果动态方面存在挑战。
-
使用长上下文LLM或RAG等策略可以提供改进,但仍然落后于人类性能。
➡️