不确定性感知的可解释联邦学习

本研究主要解决了联邦学习中决策过程解释和生成解释可靠性评估的挑战。提出的不确定性感知可解释联邦学习(UncertainXFL)框架能够在联邦学习的背景下为决策过程生成解释,并评估这些解释的不确定性。实验结果表明,UncertainXFL在模型和解释的准确性上都超过了现有技术,提升了2.71%和1.77%。

发表于:
阅读原文