与机器人聊天就能治疗抑郁症等心理疾病?

电子说

1.2w人已加入

描述

与机器人聊天就能治疗抑郁症等心理疾病?事情恐怕没那么简单。

治疗机器人是世界上最早的聊天机器人之一。麻省理工学院研究员杰罗姆·魏曾鲍姆(Jerome Weizenbaum)于1964年建立了名为伊丽莎(ELIZA)的治疗机器人项目,旨在模仿罗杰斯学派心理治疗(Rogerian psychotherapy)的方法,即治疗师鼓励患者审视自己的想法和感受。

魏曾鲍姆给出了以下和伊丽莎典型的对话例子:

“男人都是一个样子。”

“怎么说?”

“他们总是为这样或那样的事来烦我们。”

“你能想到一个具体的例子吗?”

“其实是我的男朋友让我来这的。”

“你男朋友让你来的”

“他说我大部分时间都很沮丧。”

“听到你情绪低落,我很抱歉”

“真的,我很不开心。”

“你认为到这儿来会使你不高兴吗”

“我需要一些帮助,这点应该是肯定的。”

伊丽莎对这次的谈话既不能有记忆也不能理解。它只是在对话者输入的最后一句中搜索一个关键字,然后使用与关键字相关的规则算出答案。然而,令魏曾鲍姆沮丧的是,许多用户开始相信伊莉莎懂他们的心思。

魏曾鲍姆说:“伊莉莎制造了一种错觉,即让人以为她理解了交谈者的想法。”用户经常要求与系统进行私下交谈。这种现象被称为伊丽莎效应,这也预示着非人类倾听者的时代已经开始。

如今,我们身边充斥着各式各样的聊天机器人和语音分析应用,其中许多应用程序旨在改善我们的心理感受。针对那些患有焦虑症、抑郁症、双相情感障碍、PTSD(创伤后应激障碍)或者仅仅是压力过大的用户,像Woebot和Tess这样声称能够识别用户的情绪的聊天机器人,在大多情况下还是可以提供建议或治疗性训练。

这项技术问世时,正值心理健康危机日益严重的时期,尤其是年轻人。根据2015年的《高等教育纪事报》的一份报道,有25%的美国大学生被诊断患有精神疾病。该年接受调查的6.7万名学生中,有20%的人曾想过自杀,而9%的人曾试图自杀。自杀是大学生死亡的第二大杀手,仅次于交通事故;自1999年以来,美国的整体自杀率飙升了约25%。

据《今日心理学》(Psychology Today)杂志报道:“如今的高中生和20世纪50年代初的普通精神病患者有着同样程度的焦虑。”

“去年,我被诊断出患有临床抑郁症。”CompanionMX的首席执行官苏兰舒·达塔(Subhrangshu Datta)说道,CompanionMX曾开发出一款应用程序,可以通过分析用户的声音模式和行动水平来检测情绪的变化。达塔开始服用药物,但根据报告的定性数据与治疗师断断续续地交谈,他发现如今对抑郁症的治疗不足。

“如果病人有像我一样的症状,他们真的只能靠自己,除非病人找到临床医生说:‘嘿,我有麻烦了。’”达塔说:“人在抑郁的时候,通常不会这么做,因为他们最不想做的就是谈论这个。”

达塔花了几年时间在大型医疗器械公司建立了新的业务部门,他一直在寻找一种能连续性监测抑郁症患者的产品。碰巧的是,他曾在商学院与Cogito的首席执行官乔舒亚·费恩(Joshua Feast)一起工作过。Cogito 是一家致力于声音分析软件服务的人工智能公司,可以实时分析客户服务中心来电者的语音模式,以判断他们是否变得紧张、沮丧或心不在焉。然后,Cogito会向销售、客户服务和医疗保健项目的代理提供提示,以提高与来电者对话的质量。

例如,如果咨询医疗项目的病人听起来很紧张,Cogito可能会通过提问来促使护士表现出更多的善意,而如果顾客听起来心不在焉,Cogito可能会建议销售代理增加音量。

Joshua Feast在2007年创立Cogito,他最初的目标是用声音来检测抑郁症。在公司将AI coach解决方案商业化的同时,这项工作仍在后台进行。这项名为“Companion”的治疗抑郁症的技术,最初是在2013年与美国国防部和美国国防高级研究计划署(DARPA)签订合同时开发出来的,并与患有PTSD的退伍军人以及马萨诸塞州总医院(Massachusetts General Hospital)和布里格姆妇女医院(Brigham & Women’s Hospital)等进行了试点。Companion翻译为同伴,顾名思义是被设计用作治疗伴侣或辅助手段。

2017年,一项针对73名参与者的研究,在Companion的帮助下完成了为期12周的实地试验,这些参与者至少患有一种PTSD或抑郁症。试验要求参与者每周至少录制一次音频日记,他们的社交和身体活动也通过智能手机进行了跟踪。Companion将声音和活动数据转换为关于行为症状测量的预测,如情绪、疲劳、身体孤独感和社会孤独感。

临床医生通过DSM-5 (SCID-5)的结构化临床访谈(Structured Clinical Interview)等工具诊断抑郁症和PTSD等病症。DSM-5是一份通过检测症状诊断精神障碍的访谈指南。这项研究比较了Companion所做的预测和心理健康专家使用SCID-5所做的预测。研究表明,Companion可以预测出抑郁情绪症状(通过语音数据检测)、疲劳以及社交关系(通过活动数据检测)。

2018年12月,Cogito推出了CompanionMX,将其商业化。CompanionMX的第一个产品是用来帮助治疗抑郁症和双向情感障碍患者的。Companion可以向临床医生展示患者行为症状的趋势,以便他们决定是否进行干预,并利用这些信息与患者互动。例如,如果临床医生发现疲劳程度突然上升,他们可以根据这一变化具体询问病人。

达塔说:“临床医生在仪表盘的数据中看到了这些峰值,他们就能发现病人表现出典型的自杀倾向。并能够阻止这些病人自杀。”

目前,对于Companion是否真的能改善患者的预后(指根据病人当前状况来推估未来经过治疗后可能的结果),以及是否能用来预测发作还在研究中。达塔说:“如果你及时干预,实际上就可以避免住院。还可以防止过度用药。”

药物依赖

在精神危机泛滥的同时,美国卫生与公众服务部(Department of health and Human Services)在2017年宣布,阿片类药物的流行已成为一种突发的公共卫生事件。2016年约有210万人患有阿片类药物使用障碍,超过4.2万人因服用过量阿片类药物死亡。2016年,美国的药物过量死亡率是1999年的三倍多。阿片类药物的滥用也与抑郁症、焦虑症和双相情感障碍发病率增加有关。

2017年,为了应对这种情况,维亚康姆(Viacom)发起了一项名为“倾听”(Listen)的企业责任倡议,旨在改变全国性的成瘾话题。维亚康姆(Viacom)负责数据策略的高级副总裁科迪·福斯特(Kodi Foster)认为,Listen能做的不仅仅是发布公共服务公告。

“我问自己,我们这一代以及更为年轻的人到底怎么了,他们觉得有必要依靠阿片类药物来度过一天?”福斯特说。研究人员称,这种现象始于社会公平的缺失,他们感到孤独,认为自己的存在没有意义。

福斯特知道,即时通讯应用程序的受欢迎程度在不断上升,而短信疗法已经被证明可以鼓励人们分享痛苦。例如,南加州大学(University of Southern California)创意技术研究所(Institute for Creative Technologies)的研究发现,从阿富汗回国的美国退伍军人更愿意向虚拟面试官透露PTSD的症状,而不是通过匿名书面调查。

于是福斯特与一家名为Stndby的科技公司合作,打造了一个聊天机器人,用户可以通过网站访问。这款聊天机器人通过短信息与用户互动,旨在检测长期性格特征,测量短期心理状态,并提供相应的支持和治疗练习。

Stndby的创始人罗斯柴尔德(Sashka Rothchild)并没有专门开发聊天机器人。她希望为人们提供一种基于文本的支持系统,让他们感到自己被需要,并帮助他们实践有益的行为。罗斯柴尔德的母亲在她18岁时死于脑癌,她20多岁时的大部分时间都在努力康复。当福斯特要求罗斯柴尔德开发一款用于倾听的聊天机器人时,她发现了其中的一些奥秘。

她说:“上瘾通常是一种症状,表现为试图麻木某种非常痛苦、无奈的状态。”“我们从一开始就想推出一些东西,帮助人们管理和应对痛苦,看清痛苦的本质。”

福斯特说,Listen聊天机器人仅供几千人使用,但和伊丽莎一样,许多用户与它进行了情感上的交流,他们感谢聊天机器人的帮助。其中有一位被家庭问题和阿片类药物滥用问题困扰的参与者,她甚至把她和孩子们在迪斯尼乐园度假的照片发给了机器人。

“嘿,我知道你不是真的,但我只是想把我和家人在迪斯尼乐园玩得很开心的照片发到网上。”

“我现在好多了,谢谢你。”

福斯特说:“一个人会公开表达心情,即使他们知道自己不是在和一个人说话,但他们对这个虚拟的倾听者也有一个真实、亲密、充满同理心的或情绪化的反应。”

罗斯柴尔德认为,用户知道他们在与机器人而不是人交谈,认识到这一事实,这实际上就是有效治疗的关键。

她说:“我认为重要的是,你要说出你感到多么害怕、多么孤独、多么尴尬和担心。我们生活的环境不允许我们谈论被社会接受的感觉。在这种情况下,人们只能对机器人说些什么。”

心理危机

尽管心理健康和咨询机器人有很多好处,但批评者仍在质疑它们的安全性,并指出它们缺乏监管。目前,美国食品和药物管理局(Food and Drug Administration,简称FDA)并没有像“医疗设备”那样的监管应用程序。

美国心理协会(American Psychological Association of published studies)对一些治疗应用程序的研究报告显示,这些应用程序对减少抑郁症的影响不大,也没有降低自杀率。其他人则想知道,对机器人和屏幕的依赖是否会剥夺人们在现实生活中交流的优势。

这种对人际关系的担忧与孤独感增加的情况同时出现,在年轻人身上尤为明显。一项最新研究显示,除了心理健康出现问题、自杀和吸毒成瘾的人数大幅上升外,年轻人比其他任何年龄段的人都会更觉孤独。英国一项针对5.5万人的调查显示,在16岁至24岁的人群中,有40%的人说他们经常感到孤独,而在75岁以上的人群中,这一比例仅为27%。研究人员还发现,那些感到孤独的人在网上会有很多朋友。

孤独感和心理健康之间有着密切的联系。孤独的人更容易患抑郁症,更难以面对压力,并且更容易吸毒或酗酒。研究还发现,35岁以下的人群中,手机成瘾和抑郁症之间存在显著关系。

那么,这场危机出现的部分原因是缺乏真正的交流和关爱吗?其实我们都需要别人的关心。最近关于安慰剂效应的研究表明,这种效应实际上可能是对关爱行为的一种生物反应。接受温和医生的治疗被证实是可以提高治疗的有效性。那么一个热情又令人安心的非人类倾听者能产生类似的影响吗?

乔纳森·波特(Jonathan Potter)在布莱根妇女医院(Brigham and Women’s hospital)的一项研究中使用了这款Companion配套应用程序。虽然Companion只是倾听,不与用户交流,但波特仍然觉得这款应用在照顾着他。

“重点是它在倾听我如何表达自己的想法,而不是我在说什么。”他说:“这就像和一个真正关心我的朋友聊天。”

特克尔(Sherry Turkle)是麻省理工学院的心理学家和科技社会研究教授。几十年来,她一直在研究人们与科技的关系,包括数字伴侣。在2007年的一篇论文中,她解释了人类是如何“在一个不需要区分真实关系和模拟关系的环境中进化”的。因此,当人们与非人类的聆听者互动时,他们可能会觉得自己是在与一个关心他们的有意识物体打交道。

社会中人们通过社交媒体寻求不断自我存在感,但又感到孤独,非人类的听众能缓解我们的独孤感,但它也会带来一些问题:这些听众能否成为最终的“在线”朋友,解决我们人类基本的人际关系需求,最后又会不会使我们觉得更加孤独?

特克尔在2012年的一次TED演讲中说道:“那种没人听我说话的感觉,会让我们更想和那些看起来关心着我们的机器在一起。我们对技术的期望越高,对彼此的期望越低。我们孤独,但我们又害怕亲密。如今的机器人技术会给我们一种不需要友谊的错觉。”

不知疲倦的非人类倾听者具有独特的能力,它能够实时持续监控、分析和鼓励有益的行为。因此,人工聆听者具有充当人类护理者的潜力。

但特克尔并不认为这是一件好事:“如今,我们愿意与机器讨论自身的问题,我把这称为机器人时刻,”她在一封电子邮件中说道:“但把它作为一项成就来庆祝是很奇怪的,因为在这些交流中,并没有人在倾听我们。这不是成就,而是一个可悲的里程碑。”

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分