Even explanations cannot help trust [this] fundamentally biased system: A case study on predictive policing
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本研究探讨了用户对人工智能系统信任不足的问题,分析了不同类型解释对信任的影响。尽管混合形式的解释提高了专家用户的主观信任,但未改善决策质量或建立适当信任,强调需重新评估解释的有效性并提出政策建议。
🎯
关键要点
- 本研究探讨了用户对人工智能系统信任不足的问题,尤其是在高风险领域。
- 不同类型的解释(文本、视觉和混合)对用户信任的影响进行了分析。
- 研究发现,混合形式的解释虽然提高了专家用户的主观信任,但未能改善决策质量。
- 未能建立适当的信任,强调需要重新评估在可疑系统中使用解释的有效性。
- 提出政策建议,以促进高风险领域人工智能系统的适当信任。
➡️