PaddleOCR-VL-0.9B是一个支持109种语言的多模态模型,依托开源数据集、合成数据、网络公开数据和内部累积数据四大渠道构建数据生产体系。通过自动化标注和困难样本挖掘机制,确保数据质量和模型鲁棒性,为应对复杂现实问题提供强大支持。
批量归一化是一种深度学习技术,旨在稳定训练过程并加速收敛。通过对神经网络各层输入进行归一化,解决内部协变量偏移问题,减少梯度消失现象。该方法通常应用于隐藏层,提高模型鲁棒性并减少过拟合。在Keras中实现批量归一化非常简单,只需在层定义和激活函数之间添加BatchNormalization()。
本研究提出FLUKE框架,通过最小数据变化评估模型的鲁棒性。研究发现,语言变体对模型的影响与任务相关,模型在否定修改下表现脆弱,强调了鲁棒性测试的重要性。
本文研究假音频检测中模型对未见攻击的泛化能力,提出FADEL框架,通过Dirichlet分布建模类概率,增强模型的鲁棒性。实验结果表明,FADEL显著提升了基线模型的性能,尤其在不同伪造算法下,平均不确定性与等错误率之间存在强关联。
本研究探讨了图链接预测模型在对抗性攻击下的脆弱性,特别是变分图自编码器(VGAE)的防御不足。研究表明,采用元学习技术的非加权图攻击方法显著降低了VGAE的预测性能,强调了模型鲁棒性的重要性。
FoundationStereo是一种用于立体深度估计的基础模型,具有强大的零样本泛化能力。通过构建100万对合成立体图像,并结合自筛选流程和创新网络架构,显著提升了模型的鲁棒性和精度,设立了新标准。该模型在多个排行榜上表现优异,相关代码已开源。
本研究提出了一种分层余弦聚合方案,以解决联邦学习中的拜占庭攻击问题,增强模型的鲁棒性并保持计算效率。实验结果表明,该方法在图像分类任务中的准确率提高了最多16%。
本研究提出了一种掩膜图像一致性和差异学习(MICD)框架,旨在提升半监督医学图像分割的效果。该框架通过三个关键模块增强了上下文感知和模型鲁棒性,显著提高了小样本学习能力。实验结果表明,该方法在多个公共医学图像数据集上优于现有技术。
本研究探讨了半监督学习中伪标签过滤的缺陷,提出了一种不确定性意识的集成结构(UES),并将伪标签建模为长尾权重,以增强模型的鲁棒性。实验结果显示,该方法在多个数据集上显著提升了模型性能。
本研究提出了一种基于可解释人工智能的框架,旨在检测和缓解医疗领域深度神经网络中的误导性模型行为。通过样本和像素级的数据标注,成功识别并减轻了偏见,从而提高了模型在实际医疗任务中的鲁棒性。
本研究提出了一种基于深度学习的早期预警信号(EWS)方法,旨在有效预测疾病爆发。通过模拟不同噪声下的疾病动态,模型展示了在多种情境下的鲁棒性,具有重要的现实意义和应用潜力。
本研究探讨了大型预训练语言模型在标准数据集上表现良好但在对比集上表现不佳的问题。通过引入复杂的对比集进行训练,提出了一种提高模型鲁棒性的方法,使其在对比集上的准确率接近90%。强调了多样化和挑战性训练数据的重要性。
本研究利用大型语言模型提取EEG信号中的个体无关特征,解决了零样本预测能力不足的问题,增强了模型的鲁棒性和可推广性,对脑-机接口领域具有潜在影响。
本研究提出了一种名为梯度一致性过滤(GAF)的方法,以提高分布式深度学习优化中的模型鲁棒性。该方法通过计算微梯度的余弦距离,过滤冲突更新,减少梯度方差,提升验证准确率,并显著降低噪声标签的记忆现象。
本研究探讨了音乐生成模型训练中的水印技术,以解决未经授权使用版权内容的问题。结果表明,水印数据显著影响模型输出,尤其在水印样本比例和模型鲁棒性方面,显示音频水印技术在保护创作内容上具有重要潜力。
Allen人工智能研究所推出了OLMo 2系列开源语言模型,参数为70亿和130亿。该模型经过5万亿个标记训练,采用分阶段训练和多样化数据集,显著提升了训练稳定性和模型鲁棒性。在知识回忆、推理和语言能力方面,OLMo 2超越了前代模型,成为开源AI的新标杆。
本研究提出了一种新型的Cog Attention注意力机制,允许负权重,从而提升表达能力。通过动态QK内积,Cog Attention能够灵活处理令牌操作,增强模型的鲁棒性。实验结果表明,其性能显著优于传统的softmax注意力模块。
本研究提出了一种新方法,通过设计辅助任务来建模水下声学目标识别中的环境影响,从而提升模型的鲁棒性,并在12类目标识别中取得了先进性能。
本研究提出M3框架,以解决水下声学目标识别中真实信号不足的问题,增强模型的鲁棒性。M3在复杂声学信号处理方面超越了单任务模型,显著提升了性能。
本研究提出了一种名为“循环保形方法”(CitL)的新方法,旨在解决大规模数据集中的类别不平衡和标签噪声问题。通过评估样本的不确定性,该方法显著提高了模型的鲁棒性和准确性,分类准确率提升了6.1%。
完成下面两步后,将自动完成登录并继续当前操作。