深度学习算法在计算机视觉任务中取得进展,但其可解释性受到关注。可解释人工智能(XAI)旨在揭示人工智能模型的决策过程。该研究提出了一个XAI基准,包括不同主题的数据集,为图像提供类别标签和解释注释。还综合评述了10种以上的视觉解释评估方法。希望该基准推动视觉解释模型的进步。
正在访问的资源需要验证您是否真人。
或在微信中搜索公众号“小红花技术领袖”并关注
第二步:在公众号对话中发送验证码: