本研究比较了大型语言模型(LLMs)和DeBERTa V3模型在文本分类任务中的性能,结果显示DeBERTa方法召回率达到95.17%,提供了有关LLMs有效性和稳定性的见解,并指导未来的研究工作。
研究者们基于Kashin表示原理引入了一种数据量化算法,通过分解向量、矩阵或张量为两个因子,保持了竞争性或更高的模型性能质量。该方法在下一个单词预测任务和文本分类任务中进行了评估。
本文研究了基于预训练语言模型的文本分类任务在主题分布变化时的性能差距,并验证了经典PLMs和现代大模型都面临领域转移的挑战。通过增加主题控制的合成文本,F1得分在某些主题上提高了50%,但其他主题则没有改进。该方法适用于其他分类任务。
使用随机分隔符能够接近最先进性能,挑战了有效提示应该是可读或与任务相关的假设。实验结果显示,在九个文本分类任务中,使用随机分隔符相较于人工策划的分隔符平均相对改进了16%。
本文介绍了一种用于测量基于Transformer的文本嵌入分布的统计深度方法TTE depth,并在自然语言处理流程中引入了该深度的实际应用。研究使用TTE depth对上下文学习提示选择任务进行了实验,展示了该方法相对于统计基准方法在六个文本分类任务上可靠提升性能的结果。最后,研究使用TTE depth及其相关的秩和检验特征了合成和人工生成语料库的分布,显示出五种最近的合成数据增强过程导致与相关的人工生成文本发生可测量的分布偏移。
完成下面两步后,将自动完成登录并继续当前操作。