Enhancing the Interpretability of Generative AI through Search-Based Data Impact Analysis 本研究解决了生成式人工智能模型缺乏透明性的问题,特别是在艺术和版权内容方面。通过提出一种基于搜索的方法,分析训练数据对模型输出的影响,从而增强可解释性。研究显示该方法能够有效发现训练数据中具有影响力的子集,为未来的用户评估奠定基础,进一步提升可解释性。 本研究提出了一种基于搜索的方法,旨在解决生成式人工智能模型在艺术和版权内容方面的透明性问题。该方法分析训练数据对模型输出的影响,增强可解释性,并有效识别影响力子集,为用户评估提供基础。 generative ai 可解释性 影响力子集 生成式人工智能 训练数据 透明性