【深度学习技术】小样本医学影像的深度学习关键技术之深度模型的可解释性

59 篇文章 46 订阅 ¥39.90 ¥99.00
179 篇文章 40 订阅 ¥39.90 ¥99.00
113 篇文章 46 订阅 ¥39.90 ¥99.00

【深度学习技术】小样本医学影像的深度学习关键技术之深度模型的可解释性

深度模型的可解释性对于深度模型在医学影像上的应用十分重要。训练好的一个分类模型,怎样才能帮助到医生,其中可解释性是一种尝试。下图为在MURA数据集上训练的模型采用CAM对其最后层卷积输出进行可视化结果。详细工程:https://pengyizhang.github.io/2020/03/25/MIASSL-explanation/

在这里插入图片描述

在这里插入图片描述


2020-03-25

本文依托于综述性文章,首先回顾了解释性方法的主要分类以及解释深度学习在医疗图像诊断领域中应用的主要方法。然后,结合三篇文章具体分析了解释深度学习模型在医疗图像分析中的应用。作为一种领先的人工智能方法,深度学习应用于各种医学诊断任务都是非常有效的,在某些方面甚至超过了人类专家。其中,一些计算机视觉方面的最新技术已经应用于医学成像任务中,如阿尔茨海默病的分类、肺癌检测、视网膜疾病检测等。但是,这些方法都没有在医学领域中得以广泛推广,除了计算成本高、训练样本数据缺乏等因素外,深度学习方法本身的黑盒特性是阻碍其应用的主要原因。   尽管深度学习方法有着比较完备的数学统计原理,但对于给定任务的知识表征学习尚缺乏明确解释。深度学习的黑盒特性以及检查黑盒模型行为工具的缺乏影响了其在众多领域中的应用,比如医学领域以及金融领域、自动驾驶领域等。在这些领域中,所使用模型解释性靠性是影响最终用户信任的关键因素。由于深度学习模型解释,研究人员无法将模型中的神经元权重直接理解/解释为知识。   此外,一些文章的研究结果表明,无论是激活的幅度或选择性,还是对网络决策的影响,都不足以决定一个神经元对给定任务的重要性[2],即,现有的深度学习模型中的主要参数和结构都不能直接解释模型。因此,在医学、金融、自动驾驶等领域中深度学习方法尚未实现广泛的推广应用。解释性是指当人们在了解或解决一件事情的过程中,能够获得所需要的足够的以理解的信息。深度学习方法的解释性则是指能够理解深度学习模型内部机制以及能够理解深度学习模型的结果。关于“解释性”英文有两个对应的单词,分别是“Explainability”和“Interpretability”。这两个单词在文献中经常是互换使用的。一般来说,“Interpretability”主要是指将一个抽象概念(如输出类别)映射到一个域示例(DomainExample),而“Explainability”则是指能够生成一组域特征(DomainFeatures),例如图像的像素,这些特征有助于模型的输出决策。   本文聚焦的是医学影像学背景下深度学习模型解释性(Explainability)研究。解释性在医学领域中是非常重要的。一个医疗诊断系统必须是透明的(transparent)、理解的(understandable)、解释的(explainable),以获得医生、监管者和病人的信任。理想情况下,它应该能够向所有相关方解释做出某个决定的完整逻辑。公平、信地使用人工智能,是在现实世界中部署人工智能方法或模型的关键因素。   本文重点关注解释深度学习方法在医疗图像诊断中的应用。由于医学图像自有的特点,构建用于医疗图像分析的解释深度学习模型与其它领域中的应用是不同的。本文依托于综述性文章,首先回顾了解释性方法的主要分类以及解释深度学习在医疗图像诊断领域中应用的主要方法。然后,结合三篇文章具体分析了解释深度学习模型在医疗图像分析中的应用。
参与评论 您还未登录,请先 登录 后发表或查看评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
©️2022 CSDN 皮肤主题:成长之路 设计师:Amelia_0503 返回首页

打赏作者

Zhang_P_Y

感谢支持

¥2 ¥4 ¥6 ¥10 ¥20
输入1-500的整数
余额支付 (余额:-- )
扫码支付
扫码支付:¥2
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。

余额充值