本研究提出了MS-FSLHate框架,旨在提高社交媒体上少量样本的仇恨言论检测能力。该框架结合了可学习提示嵌入、CNN-BiLSTM网络和同义词对抗数据增强,显著提升了检测的准确性和适应性,适合资源有限的环境。实验结果表明,其在精确率、召回率和F1值上均优于现有基准。
本研究提出了一种新方法Diffusion-FSCIL,结合扩散模型与少量样本类增量学习,旨在解决数据稀缺和灾难性遗忘问题。该方法通过提取互补的扩散特征,在新类别适应和已有类别性能保持上优于现有方法。
本研究提出了一种新方法,通过脑启发的类比生成器(BiAG)解决传统少量样本类增量学习在学习新类别时无法有效利用旧知识的问题。该方法在增量阶段无需参数微调即可生成新类别的权重,实验结果表明其在多个数据集上的精度超过现有方法。
本研究提出了TARDiS,一种基于大语言模型的文本增强技术,旨在解决少量样本文本分类的问题。实验结果表明,TARDiS在多样性和可分性方面优于现有方法,具有重要的应用潜力。
该研究提出了一种新颖的少量样本迁移学习方法——文本感知适配器(TA-adapter),显著提升关键词识别性能,参数仅增加0.14%。
本研究提出了一种新方法,利用多输出嵌入网络和自注意机制,提升少量样本分类中的特征提取和分类性能。实验结果在MiniImageNet和FC100数据集上表现优异。
本文探讨了利用少量样本进行图像变化检测的问题,并通过使用简单的图像处理方法生成合成数据集来解决数据集不足导致的泛化能力差的问题。研究结果表明,使用合成数据训练的模型具有更好的泛化能力,且在此基础上利用少量样本进行微调能够获得优秀的结果。
完成下面两步后,将自动完成登录并继续当前操作。