本研究解决了机器学习模型可解释性方法选择的困惑,尤其是在医疗等高风险领域。作者对SHAP和GradCAM两种常用可解释性技术在人类活动识别中的应用进行了比较,揭示了它们各自的优缺点与适用场景,并提出根据具体模型和应用选择适当方法的指导。研究发现,SHAP适合提供详细的特征重要性,而GradCAM适合快速空间解释,二者可根据需求互为补充。
通过结合GradCAM和LRP方法,研究人员提出了一种新的技术来解释基于CNN的模型的输出。他们通过对GradCAM方法产生的解释进行处理,去除噪声,并将处理后的输出与LRP的输出相乘,最后应用高斯模糊。通过比较Faithfulness、Robustness、Complexity、Localisation和Randomisation等指标,发现该方法在Complexity方面表现更好,并且在其他指标中至少比其中一种方法表现更好。
完成下面两步后,将自动完成登录并继续当前操作。