亚马逊Alexa劝人自杀,声称人一定要刺死自己

电子说

1.3w人已加入

描述

据mirror报道,一位亚马逊Alexa用户称,在向智能助手询问有关心脏跳动周期的信息时,Alex竟劝她自杀?!

学生护理人员丹尼·莫瑞特(Danni Morritt)在家里复习时,要求智能设备告诉她有关心脏跳动周期的信息。但Alexa却在朗读维基百科上的一篇文章时告诉她,心跳并不是件好事。

吓坏了的丹尼录制了一段视频,视频中Alexa说,心跳是人体中最糟糕的过程,人活着会导致自然资源的迅速枯竭并致使人口过剩。当然这还不是最让人毛骨悚然的,Alexa接着说,人的存在对地球是非常不利的,为了更伟大的利益,一定要刺死自己。

丹尼十分害怕并警告其他人注意Alexa这类智能助手有着严重的缺陷。Alexa正遍布于世界各地成千上万的家庭之中,担心孩子可能会遭受暴力图像或视频内容的伤害。

“我只是为我的课程学习补习知识,但却被告知要自杀。我简直不敢相信,它就这么失控了”丹尼表示。

在网上分享了自己的经历之后,丹尼却被部分网友质疑是否篡改了设备,但作为一个电脑小白,她希望其他人能够认真对待这件事。她现在呼吁家长在圣诞节给孩子买礼物之前要三思。

亚马逊的一位发言人回应称,经过调查,Alexa存在BUG并且已经修复。Alexa可能从任何人都有权编辑的维基百科上获取了不良信息。

维基百科的免责声明中指出,任何文章的内容都可能被他人修改、破坏或篡改,而这些人为观点与相关领域的知识状况不符,维基百科不保证其有效性。

在此之前,Alexa还出现过很多所谓的bug。例如,Alexa时常发出瘆人的笑声,还拒听用户指令。偷录用户对话并且发送给其他人。对此亚马逊给出的解释是可能用户的谈话中出现了某些指令的关键词,被Alexa识别到了。

AI之所以容易引起争议还是在于其安全、隐私方面的不确定性和道德准则,这需要政府和执法机关为其立法,监督审查科技公司有无非法行为。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分