本研究提出了一种校准方法(RepCali),有效解决了微调预训练语言模型时编码器与解码器输入差异的问题,显著提升了下游任务的性能。
本研究提出了一种新的直流偏移校准方法和Hilbert差分交叉乘积解调算法,有效解决了复杂环境中生命体征检测的相位解调性能下降问题,显著提高了信号恢复精度。
本研究提出了一种名为CHARM的校准方法,旨在解决奖励模型中的偏差问题,从而提高评估的准确性和与人类偏好的相关性,促进更公平可靠的奖励模型构建。
本研究提出了一种新校准方法,通过在大型语言模型中添加[IDK]标记,明确表达不确定性,从而减少生成文本中的错误预测,并对知识编码的影响较小。
本研究提出了一种新校准方法MetaMetrics,通过优化现有度量的组合,更好地对齐人类偏好,在多语言和多领域任务中提升生成任务评估的代表性和有效性。
本文介绍了一种新的校准方法 ActCab,通过在语言模型的最后一层激活上训练线性层,提高知识表征能力。结合置信度指导的解码策略 CoDec,能从模型中获得高置信度的答案。在五个问答基准上,ActCab 显著降低了校准误差,提升了模型在挑战性数据集上的真实性。
本文介绍了几种校准方法,包括焦点损失、温度缩放和参数化温度缩放等,这些方法可以提高分类模型在测试数据上的校准表现,并解决过度自信的问题。实验证明这些方法在多个数据集上都取得了良好的效果。
麻省理工学院和MIT-IBM Watson AI实验室的研究人员引入了一种名为“温度计”的校准方法,用于大型语言模型(LLMs)。该方法通过构建辅助模型来校准LLMs,提高校准响应和效率。温度计可以帮助用户识别模型过于自信的错误预测,并防止在可能失败的情况下部署该模型。研究人员还发现,温度计模型可以直接应用于较大的LLMs。未来,他们计划将温度计应用于更复杂的文本生成任务和更大的LLMs。
本文介绍了一种普适的校准方法,用于调整Transformer模型中的上下文驱动分布变化。通过评估预测残差与上下文之间的互信息,量化模型对CDS的脆弱性。提出了一个简单但有效的模型校准框架,实现偏差和方差的最佳平衡。实验证明该方法增强了Transformers在真实世界数据集上的性能。
研究人员成功将Transformers应用于时间序列预测,并提出了一种校准方法来调整模型中的上下文驱动分布变化。通过评估预测残差与上下文之间的互信息,量化了模型对于上下文驱动分布变化的脆弱性。实验证明该框架能够提高Transformers在真实世界数据集上的性能。
研究人员成功将Transformers应用于时间序列预测,并提出了一种校准方法来检测和调整模型中的上下文驱动分布变化。通过评估预测残差与上下文之间的互信息,量化了模型对分布变化的脆弱性。他们还提出了一个简单但有效的模型校准框架,通过微调预测层来实现最佳平衡。实验证明该方法能够显著提高Transformers的性能。
本文介绍了一种新的市场仿真器校准方法,利用深度学习的最新进展,能够正确识别高概率参数集,无需依赖手动选择或加权的简化事实集合。
本文提出了一种普适的校准方法,用于检测和调整训练过的Transformer模型中的上下文驱动分布变化。实验证明该方法持续增强了当前真实世界数据集上最先进的Transformers的性能,特别是在具有实质性CDS的情况下。
该文介绍了一种对齐的语言模型在多选题设置下多显示过于自信的输出答案的问题,并提出了易于实施且高效的校准方法。作者评估了对齐过程对语言模型的逻辑回归置信度校准的影响。
该文介绍了一种使用未标记数据改进深度集成模型校准的方法,能够在小训练数据情况下获得低负对数似然和高集成的多样性。实验证明,该方法在多样性和校准能力上表现更好。
本文讨论了使用现代神经网络进行多目标检测的方法,考虑了检测方法的不确定性。作者提出了对象定位的精度检测方法,并研究了检测误差的影响。文章还讨论了空间不确定性问题,并介绍了校准方法。最后,作者展示了在车辆自动驾驶等场景中实现定位校准的应用。
神经网络在蒸馏数据上训练时会产生过于自信的输出,需要通过温度标定和混合等校准方法进行修正。本文提出了掩码温度标定和掩码蒸馏训练方法,可以缓解蒸馏数据的限制,实现更好的校准结果,并保持数据集蒸馏的效率。
完成下面两步后,将自动完成登录并继续当前操作。