16 CFR 1632和16 CFR 1633是针对成人、青少年和婴儿床垫的易燃性测试标准,规定了样本数量和测试程序,以确保床垫的安全性。
本研究提出了一种名为神经蜜追踪的水印框架,旨在解决深度学习模型的提取攻击问题。该框架无需额外训练,采用多步水印信息传输策略,显著增强了抵抗自适应攻击的能力。实验结果显示,其效率和攻击抵御能力优于现有方法,版权声明所需样本数量从12000减少至200。
本研究提出了一种新颖的初始化方法,旨在解决样本数量较少时从平稳分布有效采样多模态分布的难题。研究表明,低复杂度的Ising度量能够有效学习样本,为相关方法提供理论支持。
本研究探讨了过参数化对离群检测的影响,提出了一种新的离群风险度量。结果显示,当参数数量等于样本数量时,离群风险会出现无限峰值,且过参数化不一定提升离群检测效果。
本研究探讨生成模型输出的有效性,提出“有效性查询”以降低无效输出的概率。结果表明,在特定条件下,确保有效性所需的样本数量与有效性要求关系不大,为分布学习提供了新思路。
本文介绍了一种新颖的决策感知替代损失函数家族,称为扰动梯度(PG)损失函数。与现有的替代损失函数不同,PG损失函数的近似误差随着样本数量的增加而消失。该方法在错配设置中渐近地产生最佳策略,尤其在基础模型发生错配且噪声不是中心对称时表现优于现有提案。PG损失函数提供了一种新颖的、在理论上有理据的、可计算的、决策感知学习的方法。
研究发现,少量来自未知分布的样本可以提高任务的泛化性能,但随着样本数量的增加,泛化误差会下降。实验证明了这一现象。当知道哪些样本是未知分布时,可以利用适当加权的目标函数来利用这些非单调趋势,但其实际效用有限。当不知道哪些样本是未知分布时,常用策略无法保证目标泛化误差不会下降。
金融情绪分析中,较小的LLM模型通过上下文学习和微调表现出与最先进模型相当的性能,增加样本数量并未提高情绪分析性能。
我们提出了一种新颖的决策感知替代损失函数家族,称为扰动梯度(PG)损失函数,用于预测 - 优化框架。与现有的替代损失函数不同,我们的 PG 损失函数的近似误差随着样本数量的增加而消失。我们提供了数值证据,证实当基础模型发生错配且噪声不是中心对称时,我们的 PG 损失函数在实质上优于现有的提案。PG 损失函数提供了一种新颖的、在理论上有理据的、可计算的、决策感知学习的方法。
该研究使用深度神经网络同时学习模型和策略,提出使用模型集合来维护模型的不确定性并规范学习过程。通过使用“likelihood ratio”导数,可以获得更加稳定的学习。该方法在连续控制基准任务中,显著减少了比基于模型的深度RL方法所需的样本数量。
研究者提出了一种名为APART的组合方法,通过使用内在奖励和轨迹预测技能的判别器相互训练。他们发现这种方法在简单的网格环境中显著减少了样本数量。研究者通过改变VIC、重新调整内在奖励和调整softmax判别器的温度来实现最大技能。这些研究结果揭示了强化学习中技能发现算法成功的关键因素。
完成下面两步后,将自动完成登录并继续当前操作。