AI有可能开出危险和错误的治疗方案

电子说

1.3w人已加入

描述

7月25日,美国健康医疗媒体STAT曝出IBM公司的内部文件显示,用于辅助医生设计癌症治疗方案的AI产品沃森问题不小,除了来自用户的抱怨,还会开出危险和错误的癌症治疗方案。

IBM的报告里,沃森的问题:

1、沃森的训练数据不是真实的数据,是假想数据;

2、训练数据不够;

3、训练沃森时,不是医疗指南或真实数据;

4、在训练时,沃森开除了不合适且危险的治疗方案;

5、评估沃森系统和癌症专辑的方案可能有偏向性。

其实,没有这个报告,这些问题IBM在推广沃森时,好像已经提到过,因为美国隐私保护的法律非常严格,个人的病例是受法律保护的,沃森在美国的训练数据,应该是假想数据。而IBM在美国之外推动人工智能的诊断,有没有获取诊疗数据的目的?

机器换人是需要经历逐步完善的过程

记得以前在做供应链计划软件公司工作的时候,提供的是APS功能,用APS来解放计划员的计划、排程工作,解决方案是使用APS提供一个可实现的计划、排程建议给计划员,由计划员修正、形成最终的计划排程。

而IBM的肿瘤医生沃森,做的工作,就与APS对计划员的工作是一样的,经过训练的沃森,给出的是诊疗意见,最后这个诊疗意见是给医生一个参考,医生在这个过程中,沃森是一个辅助工具。

作为辅助工具,其实其发展也要经历两个过程:

第一个阶段:诊断不完善,诊断只是参考;

第二个阶段:将诊断结果限定在一定范围,保证不出错的建议。

其实很多人工智能的应用还处于第一个阶段,在这个阶段,诊断只是参考,不能影响人的诊断。在这个阶段,使用AI工具的还是需要有丰富的经验,需要具有独立诊断的能力。在这个阶段积累丰富的案例之后,降低AI误诊的比例。

而到了第二阶段,人工智能具备了专家经验,误诊比例非常低之后,可以让更多部具有专家经验的人使用工具。其实现在处于发展的第一阶段。出现各种问题是可以理解的。

机器只是工具

对于人工智能应用于治疗,其最终目标也是让机器解决确定性的,人来解决不确定性的。按照APS的设计原理,机器解决的是可以规则化的问题,而人解决的是不可以规则化的问题。而人工智能应用于治疗,人工智能解决的也是可以用知识表述并解决的问题;人来解决新的未知的知识。

人工智能还只是工具,用于辅助人的工作,是解放可以重复性的工作,而完全创新的的工作,仍然需要提示给人,来请更多的专家来完善功能。

工具的完善需要时间

IBM的沃森只是工具,但把它当作医生来用,就会出现问题。而工具的完善也是需要时间的。比如现在自动驾驶技术,虽然已经有很多应用,但也出现了很多事故。但工具的完善,都是在不断发生问题,解决问题的过程中完善的。这个过程是不可避免的。

不能因为中间出现问题,就全盘否定。AI的大趋势比可避免,不能因噎废食。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分