人工智能黑科技预测死亡你想去预测吗?

易水寒 发表于 2018-07-03 15:25:19 收藏 已收藏
赞(0) •  评论(0

人工智能黑科技预测死亡你想去预测吗?

易水寒 发表于 2018-07-03 15:25:19

死亡可以预测吗?

生老病死是自然规律,死亡更是人类不可避免的过程。那么,死亡是不是可以被预测呢?随着科技越来越发达,目前正火热的人工智能或许可以做到这一点。

继斯坦福大学于今年1月开发了一种基于大数据的AI算法,能够以90%的准确率预测死亡后,本周一,谷歌旗下的Medical Brian团队推出了一种新的人工智能算法,可以帮助医院预测病人的死亡时间,并有望在医疗领域展开更广泛的应用。

但是,这项技术是福是祸,暂时还不能下定论。

人工智能黑科技预测死亡你想去预测吗?

谷歌预测死亡新AI工具,将应用到诊所

本周一,谷歌旗下的Medical Brian团队宣布开发了一种新的人工智能算法,可以帮助医院预测病人的死亡时间,并有望在医疗领域展开更广泛的应用。值得一提的是,根据早期的结果显示,人工智能系统的预测时间要比医生的结论还要准确。

人工智能黑科技预测死亡你想去预测吗?

谷歌正在训练机器人预测人类死亡

人工智能黑科技预测死亡你想去预测吗?

谷歌又搞出一个人工智能,它可以比医生更准确地预测死亡

人工智能黑科技预测死亡你想去预测吗?

谷歌研究出了一个预知死亡的机器人,准确率95%!

该项研究,着眼于住院患者的一系列临床问题,最近发表在Nature合作期刊(npj) Digital Medicine 上。谷歌将AI技术应用到大量数据上,这些数据来自两个医学中心共216000名患者,他们每人都在医院停留了至少24小时。

人工智能黑科技预测死亡你想去预测吗?

研究者在文章中这样解释:”我们想知道在面对范围宽广的临床问题时,深度学习能否提供有效预测。所以,我们在差距很大的临床领域挑选出预测项目,包括一项最重要的临床结果——死亡,一项标准的医疗质量指标——是否再次入院,一项资源利用率指标——住院时长,以及对于患者病情掌握情况的指标——诊断结果。”

根据该研究,使用加利福尼亚大学旧金山医疗系统的数据所作出的患者死亡预测准确率为95%,使用芝加哥大学医学系统的数据所作出的死亡预测准确率为93%。 

今年5月,谷歌人工智能主管Jeff Dean表示,谷歌的下一步计划就是将这套预测系统应用到诊所。与此同时,谷歌的团队还在《自然》杂志上发表了一篇论文,其中提到了人工智能技术的预测算法:“这些模型所有情况下都要比传统的临床预测模型更有效。我们相信这种方法可以为各种临床场景创建提供准确的预测范围。”

斯坦福大学开发AI算法

死亡预测时间准确率高达90%

无独有偶,今年1月,美国斯坦福大学开发了一款“预测死期”的AI系统。它根据将近200万名成人和儿童患者的电子健康档案数据,加上相关的医学诊断信息,包括:诊断说明、在医院的天数、施行的各种治疗、医疗处方等,得到一个大数据统计数据。再通过数据收集与系统自主学习机制,来预测病患具体的死亡时间。

该研究小组表示,这套AI系统收集了从发现病症到12个月内死亡的病人数据,他们利用这些数据训练AI,让它可以模仿人类大脑神经元的组织方式,因此可以判断患者3~12个月内死亡的机率。该技术可以极大地改善对病人及其家人的年终护理:通过更准确地预测出绝症或重病患者何时会去世,照顾者可以优先考虑他们的愿望,并确保在为时已晚之前进行重要的谈话。

人工智能黑科技预测死亡你想去预测吗?

斯坦福大学人工智能实验室计算机科学博士研究生Anand Avati表示:“我们可以利用在医疗保健环境下常规收集的操作数据建立一个预测模型,而不是精心设计的实验研究。现有数据的规模使我们能够建立一个全因死亡率预测模型,而不是特定于疾病或人口统计学的预测模型。”

这个工具本身并不是用来指导护理过程的,相反,它可以与人类医生的评估结合使用,以便在对患者进行生命结束计划的预筛查中做出积极更精确的决定。最重要的是,该算法得到了机构审查委员会的批准。

AI预测死亡,到底是福是祸?

对于AI预测死亡到底是福是祸,简单来说,这是一个人工智能新的应用领域,可以为人类提供最可贵的服务——给病人最后的时光。但是,即使这项技术在帮助人类医生筛选病人进行治疗方面存在益处,其隐藏的“祸事”也不可小觑。

人工智能黑科技预测死亡你想去预测吗?

首先,是隐私问题。众所周知,在进行这项研究的过程中,研究员会需要大量的医疗数据,而多数医疗数据库都是独立存在的,分布在各种医疗系统和政府机构中。所以,如果将这些数据集中起来,比如由谷歌牵头,将私有企业和公共医疗系统中海量的患者健康数据汇集到一起,那么他们将有可能发展起健康产业,并成为医疗行业的垄断者。

另外,值得注意的是,谷歌参与的医学研究部门DeepMind Health曾在2017年在未经同意下收集患者数据,从而违反了英国法律而被指控。难过的是,DeepMind最近又遭到了谷歌审核小组的质疑,原因依然是来自它与英国国民医疗服务体系(NHS)合作共享医疗数据的事宜。

无独有偶,2016年,谷歌由于获得了伦敦三家医院超过160万患者的数据,遭到了来自患者的强烈反对。据了解,当时,谷歌正在开发一款应用,可以在病人的肾脏出现问题时第一时间通知医生。

实际上,除了非法获取数据外,医疗领域数据泄露的事件层出不穷,如果在研究过程中,利用了公众的数据却无法保证数据的安全,这势必会演变成一个更严重的问题。

其次,是医疗资源分配问题。如果一位病人并且要明显比另外一位病人严重,那么医院是否会根据人工智能的预测结论合理分配医疗资源,也非常值得关注。另外,对病人来说,知道自己的死亡时间,无疑是会加大其心理压力,那么应该如何保证,这份压力不会对患者的疾病造成负面的影响呢?

最后,是关于确保该AI技术被合理应用的问题。虽然,这项技术在一定程度上可以帮助医生进行更精准的判断,但是,在这个过程中,保证病人能够通过AI技术受益,是最重要的,而不是让技术公司从中渔利。

因此,将这项技术应用于现实还有很多的问题要去解决,比如AI、伦理等等。究竟是福是祸,还需要进一步的关注。

收藏

相关话题
文章来源专栏

评论(0)

加载更多评论

参与评论

相关文章

分享到

QQ空间 QQ好友 微博
取消