当前AI代理的记忆至关重要。传统大型语言模型无状态,缺乏上下文。新记忆范式使代理能够有效利用过去的互动,从而提升对话质量。记忆管理技术能提高企业效率并降低成本,但也带来隐私和伦理问题,需谨慎处理。未来,记忆将成为AI发展的重要基础设施。
本研究提出了GuideLLM,旨在提升大型语言模型在对话引导中的表现。通过目标导航、上下文管理和同理心参与,GuideLLM在对话质量和自传生成能力上显著优于基线LLM。
ChatGPT通过人类反馈强化学习(RLHF)不断改进,用户选择更自然的回答并提供反馈,以便未来模型更新。RLHF帮助AI理解人类偏好,减少偏见,提高对话质量。结合安全规则,确保AI灵活且安全。
本研究提出了“多面心理技能”对话数据集,以解决大型语言模型在复杂社交对话中的技能规划问题。新模型“Thanos”显著提升了对话质量,促进了利社会行为。
研究比较了基于LLMs和非基于LLMs生成的回应对主观评价的影响。结果显示,使用GPT-4时,情绪变化、共情和对话质量显著改善,显示其在心理咨询中有较高能力。但与情景对话相比,使用人类心理咨询数据集训练的模型并未表现更好。研究还指出,LLMs在心理健康服务中的应用可能引发伦理问题。
本研究提出了一个新的基准,用于评估语言模型的角色扮演能力。通过模拟用户动态对话和评估对话质量,构建了包含玩家模型、询问者模型和评估模型的框架。实验结果显示,自动评估与人类标注之间存在强相关性,为语言模型在互动场景中的能力评估奠定了基础。
完成下面两步后,将自动完成登录并继续当前操作。