为什么要让众所周知的黑匣子破坏人们对它的信心?

电子说

1.3w人已加入

描述

如果医学AI算法表现良好,为什么要让众所周知的黑匣子破坏人们对它的信心?

或者,如5月27日发表在《放射学:人工智能》上的一篇观点文章中所问的那样:“为什么我们不应该简单地信任该模型而忽略为什么做出特定决定?”

当前的问题是可解释性,即人的大脑可以理解AI算法结论背后的逻辑的程度。

宾夕法尼亚大学放射学系的Despina Kontos博士和Aimilia Gastounioti博士都是针对同一天在同一期刊上发表的发现而写的,他们都认为这种可解释性可能不是必不可少的,但无疑可以加快AI的发展。纳入常规临床实践。

作者指出,对错误的决策或预测的一种可理解的解释“可以帮助人们理解错误的原因,并为如何解决该错误提供指导。”

同时,对正确决策或预测的解释“有助于验证特定结论的逻辑,确保因果关系得到理解,并减轻了对混淆或偏见的潜在怀疑。”

无论哪种情况,“与“黑匣子”相比,放射科医生和患者都更容易相信一个能够解释其决策(包括其失败)的模型。”

Kontos和Gastounioti对同一天在同一期刊上发表的评论结果进行了评论。

由瑞士伯尔尼大学的毛里西奥·雷耶斯(Mauricio Reyes)和同事们提出的研究结果是从放射科医生对当前主题的观点中得出的,并包括以下三个基本要点:

放射人工智能(AI)系统通常具有许多计算层,这可能使人类难以解释系统的输出。

正在开发可解释性方法,以便可以通过使用可视化,反例或语义来解释AI系统。

通过增强其可解释性,可以更好地验证,信任并在放射医学实践中采用AI系统。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分