本研究提出DR.GAP方法,旨在自动处理大型语言模型中的性别偏见问题。该方法通过示例选择和推理生成,降低偏见并保持模型性能,实验结果验证了其有效性和适应性。
本研究提出了一种新方法——多因素平衡ICL(BMF-ICL),旨在解决多语种大型语言模型在上下文学习中因示例选择导致的有效性差异。实验结果表明,BMF-ICL在多个模型上优于现有方法,强调了整合多因素的重要性。
本研究提出了一种新的选择性示例学习方法(SSL_ner),通过实体信息优化Few-Shot学习中的示例选择。结果表明,SSL_ner在多个开源大语言模型上表现优异,并首次进行了系统评估。
本研究提出了一种创新的进化预提示优化方法,有效解决复杂推理任务中的示例选择问题。该方法在基准数据集上准确率提高超过10个百分点,并在多种场景中表现出一致的提升。
本研究提出了一种名为VideoICL的视频上下文学习框架,旨在提升视频理解模型在异常分布任务中的表现。通过示例选择和迭代推理,该框架在特定场景下显著改善了理解效果。
本研究提出EXPLORA算法,旨在解决文本及混合源的复杂推理示例选择问题,减少大语言模型调用次数约11%,性能提升12.24%。
本文介绍了一种解决自然语言处理中元学习问题的方法,通过将调整和预测转化为序列预测问题,并在两个文本分类任务上进行了测试。结果表明,该方法更好地利用了语言模型的归纳偏差,提高了绝对 AUC ROC 评分。与不调优的'in-context learning'相比,'in-context tuning'通过元训练从'in-context'中学习,提高了平均 AUC-ROC 分数,并减少了方差和示例选择。
完成下面两步后,将自动完成登录并继续当前操作。