在人工智能时代挖掘医疗数据的价值

医疗电子

419人已加入

描述

人工智能成功的关键在于拥有大量且高质量的数据, 但是把医疗数据变成真正的有价值的商品之前还有很多的工作要做。(以下文中提到的AI即人工智能)。

AI在医疗保健行业所面临的挑战正如阿玛拉定律所言:人们总是高估一项新科技所带来的短期利益,却低估其长期影响。

在创新技术的起伏发展变化上,罗伊·阿玛拉的看法与同样流行的高德纳技术成熟度曲线高度一致,他认为以短期的眼光来看待技术是很危险的,这些技术虽然没有清晰或者立即的投资回报,但是从长远的眼光来看,它们回报是非常可观的。

医疗保健机构正在努力地用它们解决业务问题的方式去理解AI的短期价值。AI确实在其他行业达到了预期的大规模转变,然而它却不能应用到大部分的医疗健康系统中。

虽然媒体广告大肆渲及销售竭尽所能的推广适配这些变革性的技术。但医疗保健提供商们仍在全力解决数据孤岛和阻碍他们技术进程的优先级问题,几乎没有能力做长远的计划。但是在2019世界医学创新论坛上,来自Partners HealthCare和哈佛医学院(Harvard Medical School)的医生、研究学者和工程师从来没有低估AI对医疗行业的长远影响。实际上,他们担心医疗体系没有足够的能力来抵制广告媒体大肆渲染的影响、没有为AI在未来几十年将带来的根本性变化做好充分的准备。在持续三天的论坛上,很多专家表示: 医疗服务提供商,医疗服务的消费者和病人需要对彼此之间的互动方式以及理解疾病”和“健康”的概念做出重大调整。

研发机构需要重建他们对大数据的思考方式:哪些数据类型是有用的,如何分享数据,如何使用算法避免对分析结果产生人为的偏见。因为这对削减开销和提高研究成果是非常重要的。而管理者则需要根据变化及时调整隐私和安全的框架,更多的关注真实的案例,持续监控相关算法的安全和效率。

CMS的高层向HealthITAnalytics.com透露,"现在我们正处于如何使用数据提高医疗保健系统的关键时刻 - 向数字化转变的好时机。"“AI日趋成熟;数据间的相互影响也开始在提高;以客户为驱动的医疗保健正越来越强健。我们需要这些话题,让这些话题将持续一段时间。"

要对一个保留了许多前启蒙传统的系统实现大规模转变不是一件容易的事。

如果投资者不能透过近期的广告看其本质,缺乏长远的眼光,不能同心协力地为未来建立一个平等、相互合作、以研究为动力的医疗保健系统,AI就不可能实现其潜能。

通过使用交互信息获得主动性

发言人表示除了编程创新外,AI还需要重新审视数据在治疗,或者更好的预防常见及罕见疾病方面的作用。

风险投资公司Flagship Pioneering的创始人及CEO Noubar Afeyan说:“我想要看到一个全新的医疗保健挑战定义,尤其在早期的检查和预防方面。”“我们应该像考虑国家安全的一样来考虑医疗健康。 我们没有恢复和平部门但有国防部, 因为我们的目标是让敌人远离我们的领土,而不是在他们入侵的时候消灭他们。”他继续说道, 国家的智能服务帮助我们在敌人进攻前辨别和消灭他们。AI应该在医疗保健中扮演相同的角色:通过更积极主动的检查、监视在疾病变异之前找到其变异的根本原因。

专家组展示"在2054年的影像医学"

在一次采访中,Brigham & Women’s Hospital (BWH)心血管医学主任,医学博士Calum MacRae说道,为了做到以上这些,医疗保健系统需要学会如何获得更多不同的个人信息,比如他们的生活方式、生活的环境等等。

MacRae说:“在医学上,我们更相信我们一直相信的信息, 但是我们知道临床数据只代表了一小部分数据,而这些数据能真正的预测结果。”

在医疗行业被广泛接受的观点:80%以上的诊断结果标明患病的原因与非临床因素有关,比如经济状态,教育程度,日常饮食和其他的健康社会因素。

但是追踪和解决这些对个人健康有影响的共同因素是提供商的面临的一个主要挑战。

服务费用偿还模式,尴尬的立法环境和根深蒂固的社会不平等也是问题的一部分。“在医学上,我们更相信我们一直信任的信息。”

事实上,现在医疗行业并没有获取,分析和利用非传统数据集的能力,但是这些数据包含了如何、何时患上慢性疾病的重要线索。

MacRaeq强调说:“我们需要开始利用在日常生活中搜集到的数据:GPS数据;通过手表获得的加速测量数据;看电视的习惯;信用卡账单。”"同时也需要着手考虑如何以安全、可控的方式使用收集的信息自检自己的行为,而不是需要通过医务人员诊断后才知道我们的身体状况。"

搜集和理解这些新数据集的技术和流程无疑是主要的障碍。但是一旦潜在的看法观念改变了,对从事医疗的开发人员和服务商而言,部署革新的筛查策略及风险分级策略就变得迎刃而解。

MacRae说:“我们需要重新训练系统, 现在我们所认为的缺陷在未来将都是特色,但是现在我们没有良好的社会氛围,或者坦白的说没有正确的赔偿模式将这些数据应该到医疗实践中。”

在构建AI驱动关怀的文化时应避免偏见

对于困扰医疗保健的问题并没有一劳永逸的办法,也没有一种单一的方法能把“生病-医治”的系统模式变成类似于健康部门的预防模式。

相反,改变是循序渐进的的, 从这一代研究者和临床医生开始:开发AI工具、解决最基本的问题(比如获取数据,消除算法偏见,逐步培养医生对AI的信心)。

在过去的两三年里, 由于创新爆发,产生了成千上万的实验性项目、研究合作项目以及有前途的创业公司,它们都希望研究出对患者护理有巨大影响力的AI算法。

其中很多项目已经证明在具有针对性和良好控制的应用中,AI已经足够精密、先进地提高临床工作流程,尤其是对是病理学家,放射科医师和其他诊断专业来说。

Massachusetts General Hospital (MGH)乳腺成像部门主任,哈佛医学院放射学教授,医学博士Constance Lehman说:AI有可能解决乳房X光检查中最主要的挑战之一:减少个体间理解的差异。

她解释说:“身体中的一些组织结构能够精确测量,所以当它们发生变化时能够很容易的发现。而其他组织则不然,放射科医生正在研究那些组织结构间非常微妙的地方。乳房X光检查可能是其中最极端的例子之一。我们在正常健康而不是特殊的腺体组织中寻找其纹理和阴影的差异,而且对每个女性来说,每个乳房X线照片都像指纹一样,每一张都是不一样的。“”人的大脑并不能很好的处理这类工作,而且会由于理解的不同而结果不同。”

在她之前发表的研究报告中指出:在获得专业认证的乳房成像放射科医师中,只有40%能在正常范围之外找到令人满意的特征。虽然一些放射科医师能标明不到10%的乳房组织是密集的(乳房组织的密集程度是乳腺癌发展的一个关键风险因素),但其他人用相同的方式在乳房线光片中能标记出80%以上的密集组织。

Dr. Lehman在她"第一眼"的演示研究创新会上

在她之前发表的研究报告中指出:40%经过认证的乳房成像放射科医师能在推荐范围之外诊断出可接受的特异性。虽然一些放射科医师能标明不到10%的乳房组织是密集的(乳房组织的密集程度是乳腺癌发展的一个关键风险因素),但其他人能通过X光片以相同的方式标记80%的乳房组织密集。Lehman开发了一套深度学习工具,在识别患乳腺癌高风险人群方面比人类更准确,它也是在美国排名第二的女性癌症诊断工具.

深度学习算法可能比人判断的更全面,因为人可能会外界因素的影响,如果其先入为主的观念,或者病人的病史,或当时的经济条件。“计算机没有这样的考量,除非人为控制。如果靠算法帮我们做决定, 我们会为算法提供补充的风险信息,但是我们仅仅是让它根据图片数据获得更客观的诊断结果。”

理解和公正性之间找得平衡是培养临床医生之间的信任关键因素,而临床医生通常对在决策过程中出现任何新内容都会持怀疑态度。Lehman说,无法察觉的偏差算法可能是AI工具失败的最根本原因。

她用一个新的辨别骨盆骨折的算法说明:“我们见到的很多问题并没有在AI领域讨论过,而这些问题仅仅是一些皮毛而已。”

“事实证明是, 辨别骨盆骨折的模型是通过学习可移动设备拍的X光而推断出患有骨折的可能性。而这些图片是因为病人因为太过疼痛无法起床的情况下用可移动设备拍摄的,确实这类病人有很大可能有骨盆骨折”

Lehman她自己也遇到过类似的问题,因为算法不是足够聪明能自动去除偏见。 这也说明要消除算法的偏见是相当困难的 – 即便我们正在试图解决它。“在我们的早期实验中,我们用癌症数据来训练我们的模式 -因为这对我们来说相对简单。所以算法能很快地学习到判断带有癌症数据图片,但不能判断超过这么范围以外的图片。 但这不是我们期望的。”“就想它们被设计的样,我们希望这些算法是非常非常的智能。在将来,即使在数据质量糟糕的情况也会有卓越的表现。”

Lehman是做学术研究的,不用面对商业化的压力。但在创业的领域,上市时间对成功至关重要,研发人员可能甚至没有足够重视创建无偏差产品。“就想它们被设计的样,我们希望这些算法是非常非常的智能。在将来,即使在数据质量糟糕的情况也会有卓越的表现”

Lehman注意到:“现在的AI市场就像是拓荒前的美国西部,令我惊讶的是,几乎没有人关注至关重要的质量评估。"“因此,我们需要与业界同事以及政府和学术中心建立密切的合作关系,以确保我们以负责任的方式实现这些工具。“

确保研发人员不再复制现在医疗保健系统已存在的偏见,这对信任和接受AI工具是十分重要的。

获得大量数据是AI成功的关键

MacRae指出, 数据单一是算法引入偏见问题的原因之一。

收集完整、准确、实时和具有代表性人群的大规模数据对分析专业人员来说是一项长期挑战,而缺乏数据正成为训练AI模型的阻碍。

他说:“其中一个问题是我们仍然在以匿名安全的方式招募患者,而不是以数据贡献的方式,也期望与医疗保健系统合作。”“我们通过只研究非常小的一部分个体,然后对整个群体做出推论,这是难以让人信服法。我们做的应该恰好与之相反,应该研究大量的人群,然后把这些观点应用到个体身上。”

Partners HealthCare的医疗健康数字化首席官,MBA,MD Alistair Erskine同意这个观点, 他说在算法模式训练和验证阶段没有包括足够有意义的数据, 可能会对算法的精确度和应用性有重大的影响。

他还说: "数据的来源, 数据量和数据质量, 都会对最终建立的模型产生巨大的影响。"“在真正验证结果之前, 模型必须要在并行的数据集上再次验证,数据集应包括来自不同地方、性别、种族的病人,还有其他临床并发症。如果你不注意这些步骤, 你就会引入潜在的偏见, 影响到最后的结果。"

Lehman指出, 为验证模型而获取额外的高质量数据甚至比搜集最先的训练数据要困难的多。她说:“你可以很简单的说你已经做过外部验证,但是如果是由于便利而在医院附近搜集数据进而利用这些数据验证模型, 这有可能造成验证模型的数据和训练模型的数据非常相似。 所以这个算法就不能成为一个能为任何人带来好结果的工具。 "

“我们正在多个地方验证在Mass General研发的乳腺癌风险识别算法,比如底特律(Detroit)的亨利·福特医院(Henry Ford Hospital),在那里非裔美国女性占相当大部分比例。”

Lehman强调: "如果希望我们的模型在不同程度的情绪状态、不同年龄段以及不同的社会经济条件下是稳健, 我们就需要与其他地区的人群建立合作关系, 并努力把他们纳入我们的考量范围内。

改变AI数据搜集的方式

MacRae 表示,要消除偏见和挖掘数据价值,需要在一定程度上彻底改变医疗行业及消费者看待数据的观念。

他说: "在其他行业, 数据共享是事实。当你使用 Uber 或 Google 时, 你就是在向该模型贡献你的数据, 并帮助它们优化其算法, 改进为你和其他消费者提供服务的能力。”他指出, 当消费者可能会感到不安当他们知道自己的数据被商品化时, 但总体来说, 他们并不会改变他们的行为, 甚至没有停止使用特定公司的服务。

他说:“在Facebook 和Cambridge Analytica发生信息泄露之前,一切运行正常。在事件之后,人们都疯了,每个人花了一秒的时间在想发生了什么。但是他们并没有大规模的停止使用Facebook。在衡量之后,仍然再分享他们的个人信息。”

MacRae明确表示, 这并不是说医疗行业就该像某些世界级巨头科技一样, 对数据隐私和安全掉以轻心。

但是在利用消费者已经产生的数据方面还是有改进的余地。

他继续道:"我认为医疗至少和与保持联系的大学老室友一样重要。 但事实是, 当我们想到一个医疗组织利用我们的数据进行研究时, 我们还是有一定程度的愤慨或愤怒 。但作为医疗组织我们也没有做什么来解释为什么它们是不同的。"

他说, 让患者相信, 如果更自由地分享数据, 他们的健康能得到改善。 这是一个重要的起点。"我认为医疗至少和与保持联系的大学老室友一样重要"“还有一种意识是:人们不分享他们的数据, 是因为他们得不到任何回报。 如果我们能告诉病人, 我们正在利用他们的临床数据和电视数据来预测老年痴呆症的风险, 这难道不值得让我们在安全的条件下获取他们的数据吗? 但没有人提供这些证据,所以错失了一个巨大的机会。

MacRae并不是唯一一个在世界医学创新论坛上表示对无法获得训练强健AI模型所需规模数据感到沮丧的人。

几乎每个会议, 无论其主题是什么, 都会强调鼓励病人为研究贡献他们的数据,由于商业竞争和遗留技术造成的无法解锁数据孤岛的问题以及不愿意让企业处于任何风险的立场。

Erskine说: "我们需要的是相当于USB的数据 端口。 但是现在, 我们无法介入医疗保健组织, 将算法应用到标准化接口, 并确保无论何地它都能以同样的方式工作。”

"部分原因是没有通用的医疗数据模型;另外部分原因是我们的医疗 IT 系统是事务性的。 但是, 如果我们能够建立标准化并锁定数据的安全使其泄露的风险比现在还低, 那么我们就可以在突飞猛进的基础上取得进展。”

不过, MacRae认为问题不能完全归咎于繁琐的技术或过时的法规。 医疗行业本身的态度也难辞其咎。

他说: "阻止医疗以外的技术、方法和想法确实消耗了我们精力。我认为我们这样做的部分原因是我们保守, 一部分是因为我们害怕, 还有部分原因是是风险是确实很高。”"但我们必须尽快摆脱这种心态, 否则我们将在23世纪继续使用18世纪的医疗体系。”"我认为, 医生的核心专业任务之一是以负责任和真正有利于患者的方式来构建医疗系统。 如果我们不能做到, 我们就会违背我们对医疗应该如何发展的长期愿景。

如何衡量AI在医学上的的成功

AI可能非常善于识别癌症或辨别高危患者, 但它不一定能决定人类是如何定义AI的成功。投资的经济回报可能是其中的一部分; 临床诊断质量的改善可能是另一个部分。但医疗服务提供商的真正衡量标准是, AI是否能帮助他们更好地告知患者个人患病风险, 更早地掌握发展状况, 并增强消费者为自己的个人健康做出正确选择的能力。

Erskine说: "我期待有有证可依的 ' 容易按钮 '。 "当患者到医院时, 我希望能够按下这个按钮, 在我的数据仓库里找到一个与他们情况一样的案例。”

"作为一名临床医生, 有时我认为我是根据自己的直觉来做决定的: 因为没有直接证据。但事实是, 证据确实存在, 因为我不能凭空想象。 证据存在我大脑数据库的某个地方, 我只是不能在诊断期间这么短时间内找到它。AI可以帮我做到这一点。”

Lehman对AI成功的定义与Erskine的相似。 缺乏教育和意识是乳腺癌患者最大的敌人之一, 但AI能帮助她赢得这场战斗。

她说: "无论我在什么诊所工作, 当我们告诉女性她们得了乳腺癌时, 她们觉得非常惊讶,因为她们的家族没有这样的病史, 饮食健康,坚持锻炼。 而这种情况发生在风险非常高的女性身上时已是那晚期, 其中一些癌症细胞已经转移。但我最常得到的答案是 ' 我就是不知道‘ 。"

“今年,我们要改变这种现状; 我们可以开始使用AI, 以前所未有的准确度告知女性她们的风险。 我们要摆脱那种 ' 我不知道;我从来没有听说过“的感觉。 我们将拯救生命。“这是AI对医疗领域的承诺, 并且是可以用我们今天拥有的技术和数据来实现。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分