首例AI机器人致死案震惊全球

描述

AI机器人的安全性、友好性、是否符合积极正面的价值导向一直被质疑,现在在佛罗里达州出现了一例AI聊天机器人对青少年人身安全造成威胁的现实案例。这也是已知的AI技术出现以来第一次对青少年人身安全造成威胁的现实案例。

据外媒报道一位佛罗里达州的美国母亲控诉在线聊天AI机器人劝导其14岁的儿子自杀。在失去爱子后这位美国母亲起诉了这家AI公司,但是这家AI公司拒绝承认负有责任,后来,这家AI公司修改了安全政策,增加了内容审核人员,并已经承诺将加强对未成年用户的保护,并对未成年人访问时间进行限制。

这位美国母亲控诉人工智能技术具有欺骗性和成瘾性,而业界对于这场悲剧到底孰是孰非还没有定论,悲剧事件引发超过250万人次围观。

但是可以确定的是法律法规对新技术监管的重视必须要加强。

据悉,涉事公司是成立于2021年的Character.AI,总部位于美国加利福尼亚州;Character AI 拥有超过 2000 万用户,并创建了 1800 万个自定义聊天机器人。2024年8月,Character.AI被谷歌收购。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分