研究人员开发了名为“MAIA”的系统,利用视觉语言模型和解释性工具,自动化进行神经网络解释性任务。该系统能够标记视觉模型内部组件、描述激活它们的视觉概念,清除图像分类器中的无关特征,寻找AI系统中的潜在偏见。研究人员验证了MAIA的解释准确性,并发现其描述与人类专家的描述相当。该系统的灵活性使其能够回答用户关于AI模型的各种解释性问题,并设计实验进行调查。研究人员表示,这一方法有助于审计AI系统的安全性,并帮助理解和监控AI系统的挑战。
完成下面两步后,将自动完成登录并继续当前操作。