本研究探讨了人类与大型语言模型(LLM)互动中的不完整性和模糊性,提出了一种神经符号框架,分析这些因素对答案正确性的影响。研究表明,多轮互动有助于解决复杂问题,并减少不完整性和模糊性。
本研究提出了SegLLM,一种新型的多轮互动推理分割模型,通过对话记忆增强了大语言模型的分割能力。SegLLM在多轮任务中的性能提升超过20%,在单轮分割和定位任务中也有显著改善。
完成下面两步后,将自动完成登录并继续当前操作。