本研究提出了一种解耦图能量模型(DeGEM),旨在提高异质图环境下的节点异常检测准确性。通过最大似然估计(MLE),DeGEM有效克服了能量传播导致的性能下降,实验结果显示其在同质图和异质图上的表现优于现有方法。
本研究探讨了多数据源在条件生成建模中的相互作用,提出了一种基于包围数的条件最大似然估计方法,并证明在源分布相似且模型表现力足够时,多源训练优于单源训练。模拟和实际实验验证了该理论的有效性。
本研究提出PIPA框架,以统一理解语言模型的偏好对齐问题。通过最大似然估计,PIPA实现了3-10%的性能提升,并有效整合了先验信息。
文章讲解了参数估计中的预测与估计的区别,介绍了最大似然估计和贝叶斯估计,并通过示例说明如何在观察数据中估计未知参数,强调无偏估计和一致性估计的重要性。此外,讨论了假设检验的基本概念及步骤,包括零假设和备择假设的设定,以及如何通过P值和显著性水平进行决策。
EM算法用于优化模型参数,通过最大化期望来处理隐变量问题。隐变量不可观测,但影响观测数据的生成。文章详细阐述了EM算法的原理及其在最大似然估计中的应用。
本研究分析了逻辑回归中最大似然估计器(MLE)的预测性能,探讨其存在性和准确性,提供高斯协变量下的非渐近保证,并扩展至非高斯协变量及误设模型,指出MLE在伯努利设计中对参数方向的敏感性。
本研究提出了一种基于LSTM的太阳辐射预测方法,结合概率回归和最大似然估计,提高预测可信度。结果显示,使用偏态分布模型的最大似然估计在多时间跨度的预测中表现更佳,平衡了点预测与不确定性估计。
本文研究了施罗丁格桥问题的最大似然估计及其数值方法,提出了基于高斯过程的生成模型,优化了生成时间,并在图像超分辨率等应用中取得了良好效果。同时,探讨了新的采样算法和分布匹配算法,以提升模型的可扩展性和稳定性。
最新的扩散模型为嘈杂的线性反问题提供了无需重新训练的解决方案,通过逆扩散过程的条件后验均值近似,对扩散嘈杂图像进行高斯近似。提出了一种基于最大似然估计的通用后验协方差优化方法,显著提高了性能。
本文提出了一种通过最大似然估计来表征图像平均意见分数(MOS)的高效方法。通过自监督学习的质量感知表示,引入了可学习的相对质量度量来预测图像之间的MOS差异。实验证明该方法在校准有偏SOS方面效率高,并改善了IQA模型的学习。
该论文介绍了原型对比学习(PCL)这一无监督表示学习方法,通过增加原型作为潜在变量来寻找最大似然估计,提出了一种基于对比学习的通用损失函数ProtoNCE loss。该方法在多个基准测试中表现优于当前最先进的基于实例对比学习方法,对低资源转移学习有显著改进。
Kontorovich和Painsky提出了一种用于估计离散概率分布的新限制,该限制在各种准确度上几乎是最优的,包括实例最优性。所提出的基于数据的最大似然估计的收敛保证显著改进了已知结果。作者利用和创新了各种技术,包括切诺夫型不等式和经验伯恩斯坦界。通过合成和真实世界实验验证了结果。最后,将所提出的框架应用于基本的选择推断问题,即估计样本中最常见的概率。
该论文介绍了原型对比学习(PCL)这一无监督表示学习方法,通过增加原型作为潜在变量来寻找最大似然估计,提出了一种基于对比学习的通用损失函数ProtoNCE loss。该方法在多个基准测试中的表现优于当前最先进的基于实例对比学习方法,在低资源转移学习方面有显著改进。
该论文介绍了原型对比学习(PCL)这一无监督表示学习方法,通过增加原型作为潜在变量来寻找最大似然估计。提出了一种基于对比学习的通用损失函数ProtoNCE loss,此方法在多个基准测试中表现优于当前最先进的基于实例对比学习方法。
该论文介绍了一种无监督表示学习方法——原型对比学习(PCL),能够编码数据的语义结构到学习的嵌入空间中。该方法通过增加原型作为潜在变量来寻找最大似然估计,并提出了一种基于对比学习的通用损失函数 ProtoNCE loss。该方法在多个基准测试中表现优于当前最先进的基于实例对比学习方法,在低资源转移学习方面有显著的改进。
本文介绍了一个用于无监督学习结构化预测的框架,通过特征丰富的条件随机场实现对可观察数据的条件预测。该框架使用最大似然估计的模型进行输入重建,无需独立性假设或限制特征类型。作者将该框架应用于词性归纳和文本词汇对应任务,并证明其比基线方法更高效。
深度生成人工智能是机器学习社区中关注的重要话题之一。最大似然估计是训练生成模型的主要范式,但无法满足用户对生成模型的全部要求。增强学习作为一种竞争性选择,能够注入新的训练信号,拓展了生成人工智能的界限。本综述提供了一个高级别的综述,涵盖了广泛的应用领域和大规模语言模型领域。
完成下面两步后,将自动完成登录并继续当前操作。