Se²: 顺序示例选择用于上下文学习

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

该论文介绍了一种名为Se^2的顺序感知方法,通过使用大型语言模型在不同上下文的反馈来捕捉示例之间的内在关系和顺序信息,提高了示例的上下文相关性和相关性。实验结果表明,Se^2在23个自然语言处理任务上相对提升了42%。该方法具有出色的稳定性和适应性。