【复材资讯】可解释人工智能XAI | Nature Machine Intelligence

2023-09-28 08:01
北京

可解释人工智能explainable artificial intelligence (XAI) 领域,旨在为当今强大但不透明的深度学习模型,带来更多透明度。虽然,局部可解释人工智能XAI方法,以属性图的形式解释个体预测,从而识别重要特征出现的“位置”(但不提供关于代表“什么”的信息),但全局解释技术,可视化模型通常学习编码的概念。因此,这两种类型的方法,都只提供了部分见解,并将解释模型推理的任务留给了用户。

近日,德国 弗劳恩霍夫·海因里希·赫兹研究所 (Fraunhofer Heinrich Hertz Institute)Reduan Achtibat, Maximilian Dreyer,Wojciech Samek & Sebastian Lapuschkin等,在Nature Machine Intelligence上发文,报道了概念相关性传播Concept Relevance Propagation (CRP)方法,结合了局部和全局视角,因此可以回答个人预测的“在哪里”和“什么”问题。

研究表明,在各种情况下,该项方法的能力,还展示了概念相关性传播CRP产生了更多的人类可解释说明,并通过概念图谱、概念组合分析和概念子空间的定量研究,及其在细粒度决策中的作用,提供了对模型表示和推理的深刻见解。

From attribution maps to human-understandable explanations through Concept Relevance Propagation.

基于概念相关性传播,从归因图到人类可理解的解释。

图1: 全局可解释人工智能explainable artificial intelligence,XAI:基于统一局部和全局XAI,判断存在哪些特征以及如何使用这些特征进行预测。

图2:简要概述方法贡献。

图3:基于概念相关性传播Concept Relevance Propagation,CRP,理解概念和概念合成。

图4:从概念级解释到模型和数据调试。

图5:概念相似性与细粒度决策分析。

文献链接

Achtibat, R., Dreyer, M., Eisenbraun, I. et al. From attribution maps to human-understandable explanations through Concept Relevance Propagation. Nat Mach Intell 5, 1006–1019 (2023).

https://doi.org/10.1038/s42256-023-00711-8

https://www.nature.com/articles/s42256-023-00711-8

本文译自Nature。

来源:今日新材料

免责声明:中国复合材料学会微信公众号发布的文章,仅用于复合材料专业知识和市场资讯的交流与分享,不用于任何商业目的。任何个人或组织若对文章版权或其内容的真实性、准确性存有疑议,请第一时间联系我们。我们将及时进行处理。

原标题:《【复材资讯】可解释人工智能XAI | Nature Machine Intelligence》

阅读原文

    特别声明
    本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问https://renzheng.thepaper.cn。