本文综述了可解释机器学习在物理学中的应用,强调其在科学发现中的重要性,分析了可解释性对人机协作、信任度和错误减少的影响,并展示了在物理各分支中的最新进展。
本研究分析了71位临床医生在处理缺失数据时与可解释机器学习模型的互动,发现医生更倾向于使用能够原生处理缺失值的模型,并建议未来的模型应更好地融入临床直觉。
本研究提出了一种新方法,通过将可解释机器学习中的不透明分类器预测解释任务视为约束优化,生成模型无关的解释。实证结果表明,该方法优于现有的启发式方法Anchors。
本研究提出了一种新方法DIP,旨在解决可解释机器学习中特征重要性测量的混淆问题。该方法将特征重要性分解为独立、交互和依赖贡献,并提供新的可视化方式。
本研究针对可解释机器学习中的反事实解释模型CELS的局限性,提出了一种改进方法,通过去除掩模归一化来增强解释的有效性。实验结果表明,该方法在有效性和信息性上优于CELS,可能提升AI系统的可信度和透明度。
本研究提出了一种可解释的机器学习方法,用于预测铣削过程中的表面粗糙度。通过使用铝合金2017A的数据集,研究开发了能够准确预测不同粗糙度值的模型,并发现可以去除多余的传感器,降低成本,保持预测准确性。
变量重要性在可解释机器学习中起关键作用。研究评估了解决变量重要性评估中特征相关性问题的方法,发现处理高特征相关性时存在困难和方法的实用性和局限性。
该文章介绍了一种名为RIGID的单次逆设计方法,通过随机森林的可解释性,快速生成具有所需功能行为的变形材料设计。研究表明,RIGID在声学和光学变形材料设计问题上展示了其效率和有效性,并验证了其似然估计的机制,突显了可解释机器学习在生成设计和消除大数据需求方面的潜力。
完成下面两步后,将自动完成登录并继续当前操作。