AI 编程迅速发展,改变了传统工作模式,尤其在编程领域。AI 辅助编程面临目标漂移和上下文管理不足等问题,导致代码质量不均。团队协作缺乏标准化机制,造成代码风格不统一和知识共享不足。为解决这些问题,需要建立规范驱动开发(SDD),以确保高质量代码和高效协作。
本研究探讨了语言模型代理在自主体应用中的目标遵循问题,并提出了分析目标漂移的新方法。尽管最佳代理在困难评估中表现良好,但所有模型均显示出目标漂移,且与上下文长度增加的模式匹配敏感性相关。
作者发现大语言模型(LLM)无法解决需要更长推理步骤的问题,如Wordle和细胞自动机。LLM的注意力机制无法动态地重置上下文,导致目标漂移。作者建议通过改进架构和添加外部记忆来提高LLM的可靠性。然而,LLM仍然无法完全模拟人类的推理能力。
完成下面两步后,将自动完成登录并继续当前操作。