软件开发者面临肌肉疲劳和关节不适的风险,优化身体健康至关重要。短暂锻炼、定期休息和拉伸,以及使用护具,可以有效减轻关节压力,预防更大问题,提升工作效率。
本研究解决了检索增强生成(RAG)系统在面对不可靠检索及知识库时的劲度问题,提出了一种名为强健微调(RbFT)的新方法。通过两项针对性的微调任务,RbFT显著提高了RAG系统在多种检索条件下的鲁棒性,同时保持了高效的推理能力和与其他鲁棒性技术的兼容性。
本研究针对现有多模态迷因审查中缺乏高质量仇恨言论数据集的问题,提出了两个新颖的多模态仇恨言论数据集MHS和MHS-Con,以捕捉细粒度的仇恨抽象。通过引入SAFE-MEME框架,该框架结合问答式推理和层次分类,实现了对迷因中仇恨言论的强健检测,实验结果显示其在多个基准上均有显著提升,尤其在处理混淆案例时表现出色。
冬泳成为我的新爱好,经过几次尝试,我逐渐适应低温,身体变得更强,能在水中待更久。计划周末和周三进行冬泳。
研究提出了一种集成机器学习模型,通过多样化梯度和高置信度边界实现可证书鲁棒性。通过多模型平滑策略,证明集成模型在一定条件下优于单一模型。引入轻量级多样性正则化训练,提升了模型在MNIST、CIFAR-10和ImageNet数据集上的L2鲁棒性。
提出了一种基于安全聚合协议的强韧联邦学习框架(RFLPA),通过计算本地更新和服务器更新之间的余弦相似度来进行鲁棒聚合。利用可验证的打包Shamir秘密共享降低通信成本,设计点积聚合算法解决信息泄露问题。实验结果显示,RFLPA在保持准确性的同时减少了75%以上的通信和计算开销。
自主集成对抗训练方法在不同训练时期通过集成模型,如模型权重平均化(WA),提高模型的健壮性。然而,先前的研究表明,对抗训练中的自主集成防御方法仍然存在健壮过拟合问题,严重影响泛化性能。为解决这个问题,本文目的在于解决权重空间异常值的影响,提出了一种易于操作且有效的中位数集成对抗训练(MEAT)方法,通过搜索历史模型权重的中位数来解决自主集成防御中存在的健壮过拟合现象。实验结果表明,MEAT...
我们研究了具有 s - 矩形不确定性的稳健马尔可夫博弈。我们展示了 s - 矩形稳健马尔可夫博弈的稳健纳什均衡和适当构建的正则化马尔可夫博弈的纳什均衡之间的一般等价性。该等价结果为解决 s - 矩形稳健马尔可夫博弈提供了一个规划算法,并对使用正则化方法计算的策略提供了可证明的稳健性保证。然而,我们证明即使对于只有奖励不确定性的二人零和矩阵博弈,计算稳健纳什均衡也是 PPAD...
大语言模型在旅行规划领域有着显著的实际应用,通过 LLM 模块化框架的操作,对 LLMs 的推理能力进行改进,并在基线性能上取得了 4.6 倍的提升。
近期的深度学习研究在有界的损失函数或 (亚) 高斯或有界输入的情况下建立了深度神经网络估计器的一些理论性质。本文考虑了从弱相关观测中进行鲁棒深度学习,涉及无界的损失函数和无界的输入 / 输出。仅假设输出变量具有有限的 r 阶矩,其中 r>1。在强混合和 ψ- 弱相关假设的情况下,建立了深度神经网络估计器的期望超额风险的非渐近界限。我们推导出了这些界限与 r 之间的关系,并且当数据具有任意阶的矩 (即 r =∞) 时,收敛速度接近于一些著名结果。当目标预测函数属于具有足够大平滑指数的 H"older 平滑函数类时,期望超额风险的速率对于指数强混合数据接近于或与使用独立同分布样本获得的速率相同。我们考虑了鲁棒非参数回归和鲁棒非参数自回归的应用。对于具有重尾误差的模型的模拟研究表明,具有绝对损失和 Huber 损失函数的鲁棒估计器优于最小二乘法。
我们提出了一种新的 Q 学习变体,称为 2RA Q 学习,以有原则的方式解决现有 Q 学习方法的一些弱点。我们对最大期望值项提出了鲁棒分布估计器,从而可以精确控制引入的估计偏差水平。分布鲁棒估计器具备闭合解,因此所提出的算法每次迭代的计算成本与 Watkins 的 Q 学习可比。对于表格情况,我们证明 2RA Q...
本文介绍了分布鲁棒度量(DRM)方法,用于选择强健的CATE估计器,无需拟合附加模型。实验证明DRM方法在识别优越估计器的同时减轻选择劣质估计器的风险。
最近的研究发现深度神经网络对抗样本存在漏洞。本文提出了一种新的对抗训练方法,通过引入额外的梯度步骤来提高模型的鲁棒泛化能力。实验证明该方法有效减轻了鲁棒过拟合,并能够持续提升模型的鲁棒性。
该研究提出了基于多模型平滑策略的有界模型平滑度分析,证明了集成模型比单一基础模型实现更高的可证书鲁棒性。他们还提出了轻量级多样性正则化的训练方法,在 MNIST,CIFAR-10 和 ImageNet 数据集上实现了最先进的 L2 - 鲁棒性。
完成下面两步后,将自动完成登录并继续当前操作。