本研究提出了一种基于课程学习的跨模态文本-分子训练框架(CLASS),有效解决了不同训练阶段的学习状态调整问题。实验结果表明,该方法在ChEBI-20数据集上显著提高了训练效率和性能。
本研究提出了一种多层次自对比训练框架(MuSC),通过指令分解与重组,显著提升大型语言模型在复杂指令遵循中的性能。
本研究提出了一种新训练框架,通过引入稀疏惩罚机制,解决了传统最优传输方法在稀疏性与可行性之间的权衡问题。该方法在生物信息学中的应用效果优于现有技术。
微软推出FP4训练框架,能在相同超参数下实现与BF16相当的训练效果,降低存储和计算资源需求。该框架支持最大130亿参数的模型,采用FP8模拟FP4,提升训练效率,并在反向传播中引入可微分梯度估计方法,确保训练稳定性。
Kimi k1.5技术报告介绍了一种基于强化学习的多模态大型语言模型,该模型通过扩展长文本上下文和改进策略优化方法,显著提升了复杂任务的表现。研究者们探索了高效的训练框架,结合文本与视觉数据,取得了优异的基准测试结果,为未来语言模型的发展提供了新方向。
我们提出了一种基于小型子图训练的图神经网络(GNNs)框架,证明其在渐进意义上的有效性。研究表明,小样本训练GNNs能够高效选择最佳模型和超参数,并在大型引文图上表现出与全图训练相当的性能。
研究表明,现有的视觉语言模型在视觉推理和一致性方面存在不足。为此,提出了一个两阶段训练框架:首先用自动生成的推理样本进行微调,然后结合反馈增强训练来提升性能。实验结果证明该方法有效。
本文介绍了CONTRIQUE训练框架和深度IQA模型,通过自监督学习从无标签图像数据集中学习特征并映射到质量得分,无需大量标记数据。
本文介绍了如何通过对齐技术增强大型语言模型的有益性和无害性,并提出了灵活的训练框架和有效的微调技术。通过度量方法证明了这些对齐模型在诚实性方面的显著提高。
该文介绍了一种提高视觉语言模型推理性能和一致性的两阶段训练框架。第一阶段使用逐步推理样本微调VLMs,第二阶段结合语言模型反馈增强训练过程,产生高度一致和可靠的推理链。该框架有效提升了推理性能和一致性。
本文介绍了一种用于对大规模神经活动数据进行建模的训练框架和架构,利用交叉注意力和PerceiverIO主干构建神经群体活动的潜在分词,构建了一个大规模的多会话模型,为构建分析神经数据的深度学习工具提供了一种有力的新方法。
该文介绍了一个改进的训练框架,用于训练单声道神经增强模型,以提高鲁棒语音识别的性能。该框架利用混合不变训练准则,扩展了未配对的干净语音和真实嘈杂数据,提高了从真实嘈杂语音中分离出来的语音质量,并通过处理和未处理信号的混合来缓解处理伪影。实验证明,相对 WER 减少了 16% 到 39%。
本文介绍了一种基于能量的生成流网络概率建模算法,通过随机构造数据策略来建模生成过程,并将昂贵的MCMC探索分摊开来。同时,提出了一个框架,共同训练GFlowNet与能量函数,使其在各种概率建模任务中表现出有效性。
完成下面两步后,将自动完成登录并继续当前操作。