本研究提出了一种新方法TTRL,通过未标记数据对大规模语言模型进行强化学习训练,显著提升了模型性能,Qwen-2.5-Math-7B在AIME 2024上的通过率提高了约159%。
本研究提出了一种名为Ross3D的重构视觉指令调优方法,旨在解决大规模三维视觉-语言数据集的缺乏问题。该方法通过三维视觉监督,提升了三维场景理解的性能,并展示了未标记三维数据的潜力。
我们提出了一种新方法,称为测试时自适应优化(TAO),该方法利用未标记数据和强化学习,在测试阶段提升大型语言模型的性能。TAO在文档问答和SQL生成等企业任务中优于传统微调,使开源模型Llama接近昂贵的专有模型质量。通过生成响应、评分和强化学习,TAO实现高效调优,降低推理成本。
本研究提出了一种新方法,解决药物-靶标相互作用预测中的数据稀缺问题。通过设计两个专家处理内外部数据,利用未标记数据增强协同作用,实验结果表明该模型在数据稀缺情况下显著优于现有方法,改进幅度最高达53.53%。
本研究探讨了在标签稀缺情况下处理不一致未标记数据的方法,以提升半监督学习性能。提出了一种新方法,增强了鲁棒性,并建立了评估基准,旨在解决开放环境中的稳定性问题。
本研究提出了一种新方法LeaDQ,旨在解决联邦学习中未标记数据流的样本选择问题。通过多智能体强化学习优化客户端策略,显著提高了全球模型的准确性,实验结果表明其优于现有基准算法。
本研究提出了一种自监督学习方法,解决了结构健康监测中因标记数据稀缺导致的异常检测问题。该框架有效利用少量标记数据和大量未标记数据,显著提升了异常检测性能。
本研究提出了一种新颖的图基聚类方法GraphCL,旨在解决半监督医学图像分割中未标记数据利用不足的问题。实验结果表明,GraphCL在标准测试中优于现有方法,展现出显著的应用潜力。
本研究提出了OwMatch框架,解决开放世界半监督学习中的未标记数据问题,确保自标注的无偏性。实验结果表明,该方法在已知和未知类别上显著提升了分类性能。
自监督学习是一种新兴的机器学习技术,通过利用未标记数据来提升模型性能并减少过拟合。结合少样本学习,研究人员能够更高效地训练模型。Lightly.ai等平台提供工具,帮助消除数据冗余和偏差,推动机器学习的发展。
本研究提出了一种创新的“ReMix”模型,结合有限标记的多摄像头数据与大量未标记的单摄像头数据进行训练,显著提升了人物重识别(Re-ID)模型的泛化能力,优于现有方法,具有重要应用潜力。
本研究通过流形假设的标签传播方法,解决了机器学习中标记数据集的高成本问题。结果显示,该方法在情感分析中能显著减少所需标签数量,利用图形方法生成伪标签,有效整合未标记数据,降低成本。
本文探讨了主动学习和半监督学习在深度学习中的应用,提出了多种提高模型性能和训练效率的方法,包括基于后验熵的主动集合选择、样本自适应增强(SAA)和无监督选择性标注。这些方法在处理未标记数据和噪声标签时表现出色,显著提升了模型的准确性和鲁棒性。
研究发现,使用未标记的数据进行训练可以作为对抗攻击模型的替代方法。无监督对抗训练方法在CIFAR-10数据集上提高了21.7%的鲁棒准确性,并捕捉到超过95%的改进量。使用额外的未标记数据在CIFAR-10上击败了当前已知最强的攻击。
深度学习在多个领域表现优异,但仅依靠标记数据训练模型不能保证在目标领域仍有出色表现。无监督域自适应通过利用源领域标记数据和目标领域未标记数据解决该问题,并在自然图像处理、自然语言处理等领域取得令人期待的结果。该文比较了该领域方法和应用,强调了当前方法的不足和未来研究方向。
通过SEABO方法,可以从专家数据和未标记数据中获取奖励函数。SEABO在只有一个专家轨迹的情况下,能够与真实奖励的离线强化学习算法相竞争,并在许多任务中优于先前的奖励学习和离线模仿学习方法。
Depth-Anything 是一个开源项目,旨在对未标记数据进行单目深度估计,释放大规模数据的潜力。该项目提供了相对深度估计和优越的场景理解性能。
该文章介绍了一种记忆一致性引导的分治学习框架(MCDL),通过引入两个内存库记录未标记数据的历史预测,利用预测一致性衡量每个样本的可信度,并设计了分治学习策略来充分利用未标记数据的区分性信息,减小噪声标签的负面影响。实验证明该方法在通用图像识别和语义转换任务中具有广泛性和优越性。
VerSemi是一个全新的多功能半监督框架,通过整合各种任务和利用未标记数据进行医学图像分割。实验证明VerSemi在公共基准数据集上始终超越其他方法,为半监督医学图像分割设定了新的最佳表现。
该文介绍了一种使用未标记数据改进深度集成模型校准的方法,能够在小训练数据情况下获得低负对数似然和高集成的多样性。实验证明,该方法在多样性和校准能力上表现更好。
完成下面两步后,将自动完成登录并继续当前操作。