放射AI的可解释性被认为对于临床采用至关重要


如果医学AI算法表现良好,为什么要让众所周知的黑匣子破坏人们对它的信心?
或者,如5月27日发表在《放射学:人工智能》上的一篇观点文章中所问的那样:“为什么我们不应该简单地信任该模型而忽略为什么做出特定决定?”
当前的问题是可解释性,即人的大脑可以理解AI算法结论背后的逻辑的程度 。
宾夕法尼亚大学放射学系的Despina Kontos博士和Aimilia Gastounioti博士都是针对同一天在同一期刊上发表的发现而写的,他们都认为这种可解释性可能不是必不可少的,但无疑可以加快AI的发展 。纳入常规临床实践 。
作者指出,对错误的决策或预测的一种可理解的解释“可以帮助人们理解错误的原因,并为如何解决该错误提供指导 。”
同时,对正确决策或预测的解释“有助于验证特定结论的逻辑,确保因果关系得到理解,并减轻了对混淆或偏见的潜在怀疑 。”
无论哪种情况,“与“黑匣子”相比,放射科医生和患者都更容易相信一个能够解释其决策(包括其失败)的模型 。”
Kontos和Gastounioti对同一天在同一期刊上发表的评论结果进行了评论 。
由瑞士伯尔尼大学的毛里西奥·雷耶斯(Mauricio Reyes)和同事们提出的研究结果是从放射科医生对当前主题的观点中得出的,并包括以下三个基本要点:
放射人工智能(AI)系统通常具有许多计算层,这可能使人类难以解释系统的输出 。
正在开发可解释性方法,以便可以通过使用可视化,反例或语义来解释AI系统 。
通过增强其可解释性,可以更好地验证,信任并在放射医学实践中采用AI系统 。
【放射AI的可解释性被认为对于临床采用至关重要】

    推荐阅读