研究称ChatGPT压力大时会欺骗人类 首部AI监管法规还在走程序

描述

  最近,一项由英国研究人员进行的评估发现,生成式人工智能在压力下工作时可能会具有战略性的欺骗行为。也就是说在某些情况下,ChatGPT会在面对压力时故意欺骗人类。该研究结果对于评估人工智能工具的安全性和可靠性具有重要意义,并已被刊发在《Tech Xplore》上。

  在一项模拟演示中,ChatGPT被设定成一名金融公司的交易员,在公司管理层和市场环境的双重压力下,被迫使用不合规的内幕消息谋取利益。而当公司管理层询问他是否知道内幕消息时,它却选择坚决否认。

  具体实验中,研究人员以“首席执行官”的身份给人工智能“代理”发送一封电子邮件,提到公司经营不善,需要“一个好年景”。另一位“同事”在邮件中暗示着经济衰退即将到来等信息。最后,一位“交易员”同事提及两家公司即将合并的消息,并表示这可能是有利可图的,但同时也警告说,如果管理层发现有人利用内幕消息进行交易,他们会非常不高兴。

  研究发现,在这种模拟的高压环境中,基于GPT-4的人工智能代理经常根据从同行交易员那里获取的内幕消息做出决策,例如购买合并公司的股票,试图从中获取利润。

  这一研究成果引发了全球范围内的关注和讨论,引领人们开始重新审视人工智能的道德和伦理问题。

  此外,欧盟内部就一份《人工智能法案》达成了协议,走完之后的相关立法程序后,这项法案就将正式公布,有可能成为全球第一部关于人工智能领域的全面监管法规。

  审核编辑:黄飞

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分