本研究提出了一种联合闪回适应方法,以解决大语言模型在增量学习中的灾难性遗忘问题。通过引入旧任务提示,增强新任务的泛化能力,减少旧任务的遗忘。实验结果表明,该方法效果显著。
本研究提出了一种新的任务调制对比学习方法(TMCL),旨在解决机器学习中的灾难性遗忘问题。该方法通过自上而下的调制,即使在仅有1%标签的情况下,也能显著提升分类增量和迁移学习效果,表明其在稳定性与可塑性之间的平衡中至关重要。
本研究提出了SEAL框架,旨在解决增量学习中新任务学习与旧知识保留的平衡问题。通过动态调整模型结构和交叉蒸馏训练,SEAL在减少遗忘和提高准确性的同时,显著降低了模型大小,展现了其高效性和适应性。
大型语言模型(LLMs)无法像生物那样学习,存在固有偏见,且无法真正理解用户。它们依赖存储用户数据以提供上下文,这种方法不可扩展且不诚实。实现通用人工智能(AGI)需要重新审视增量学习。
本研究提出了一种新的少样本类增量学习(FSCIL)方法,旨在解决深度学习在动态环境中的适应性不足和对大量训练数据的依赖。该方法通过为每个学习阶段开发独立模型,有效防止灾难性遗忘,并在CIFAR-100和mini-ImageNet数据集上取得了优异表现。
本研究探讨了基础时间序列模型在增量学习中的持续改进能力。研究表明,Time-MoE和Chronos等模型在增量微调中能够持续提高预测精度,而传统模型则表现下降,强调了优化微调策略的重要性。
本研究提出了一种新方法,通过脑启发的类比生成器(BiAG)解决传统少量样本类增量学习在学习新类别时无法有效利用旧知识的问题。该方法在增量阶段无需参数微调即可生成新类别的权重,实验结果表明其在多个数据集上的精度超过现有方法。
本文探讨了时间序列数据分类中的增量学习稳定性与灾难性遗忘问题,提出了一种通过特征漂移补偿网络提升模型学习能力和准确性的新方法。实验结果表明,该方法在多个数据集上表现优异。
本文研究了文本-音频增量学习(TAIL),提出了新方法PTAT,以解决模型在引入新数据集时的泛化能力不足和灾难性遗忘问题。实验结果表明,该方法在多个数据集上优于现有增量学习方法,尤其在抗遗忘能力方面表现突出。
本研究探讨了增量学习中概念基础模型对概念和类别关系的保留问题,提出了新的度量标准和MuCIL方法,利用多模态概念进行分类,且不增加可训练参数。实验结果表明,该方法在分类性能上优于其他模型,并提供了可解释性。
本研究探讨开放世界持续学习中已知与未知样本的知识迁移问题,提出的HoliTrans框架结合非线性随机投影和分布感知原型,显著提升了增量学习中的模型表现,为开放世界学习提供了有效解决方案。
该研究提出了一种顺序稳健的类增量学习模型,解决了类相似性顺序对模型性能的影响。通过图驱动的动态相似性分组方法,提升了模型的泛化能力和抗遗忘能力,实验证明其在准确性和防遗忘性能上表现优异。
本研究提出了一种新方法Horde,旨在解决增量学习中的任务边界不明确和类重复问题。该方法通过动态调整特征提取器和优化学习策略,实验结果显示在经典和重复场景中均表现优异。
本研究提出了一种在线梯度提升决策树(GBDT)框架,克服了传统GBDT无法增删数据的局限性。该框架支持增量和减量学习,优化了学习成本,实验表明其在处理少量数据增删时有效且高效,并能应对后门攻击。
该研究提出了一种可控遗忘机制,解决了少样本类增量学习中适应新类别与保持原有类别性能的矛盾。通过新类别检测规则(NCD),该机制显著提高了新类别的准确率,并有效控制了原有类别的遗忘率。
本研究提出了一种多源动态扩展模型(MSDEM),旨在解决持续学习中的增量学习挑战。该模型通过动态注意力机制和图权重路由策略,提高了新任务学习的速度和性能,取得了先进成果。
本文提出了持续知识保护分解框架(CKPD-FSCIL),旨在解决少样本类增量学习中的灾难性遗忘问题。该框架通过将模型权重分解为知识敏感组件和冗余容量组件,既能适应新能力,又能有效保护已有知识。实验结果表明,CKPD-FSCIL在多个基准测试中优于现有方法。
本研究提出了“类平衡选择”(CBS)策略,以解决主动类增量学习中的样本标注不均衡问题。实验结果表明,CBS策略在多个数据集上显著优于随机选择及其他先进方法,提升了增量学习性能,具有重要的应用价值。
PIN-SLAM 系统提出了一种基于弹性和紧凑的隐式神经地图表示的 SLAM 方法,通过增量学习和位姿估计实现全局一致地图。该系统在多种环境中表现出良好的鲁棒性,适用于多种传感器,并在位姿估计精度上优于现有方法,能够实时运行。
本研究提出RE-tune方法,解决生物医学视觉-语言模型在增量学习中的多标签胸病诊断问题。通过冻结主干网络,仅训练适配器,提升分类准确性,保护患者隐私,具有显著的计算效率,适合实际医疗应用。
完成下面两步后,将自动完成登录并继续当前操作。