该研究提出了一种结合 alpha-divergence 和 dropout 的新方法,以准确估计深度学习模型的不确定性。通过变分 Renyi 界限,扩展了变分推理,并在贝叶斯神经网络和变分自编码器上验证了其有效性。同时,研究探讨了基于广义差异度量的偏置重要性采样方法,提升了数据拟合效果。
完成下面两步后,将自动完成登录并继续当前操作。