该论文介绍了一种名为Se^2的顺序感知方法,通过使用大型语言模型在不同上下文的反馈来捕捉示例之间的内在关系和顺序信息,提高了示例的上下文相关性和相关性。实验结果表明,Se^2在23个自然语言处理任务上相对提升了42%。该方法具有出色的稳定性和适应性。
正在访问的资源需要验证您是否真人。
或在微信中搜索公众号“小红花技术领袖”并关注
第二步:在公众号对话中发送验证码: