OpenAI称找到新方法减轻大模型“幻觉”

描述

  5月31日(当地时间),openai宣布其开始对抗人工智能的“错觉”,并采用新的方法来训练人工智能模型。

  据说,如果open ai开发的chatgpt和谷歌开发的bard等模型完全捏造信息,就像罗列事实一样,显示ai的“幻觉(hallucination)”。例如,在谷歌今年2月公开的bard宣传视频中,聊天机器人对詹姆斯-韦伯太空望远镜进行了虚假说明。chatgpt最近在纽约联邦法院写了一份引用虚假案件的文件,涉及此案的纽约律师可能会受到处罚。

  目前,openai提出了一种新的方法——来缓解chatgpt中的“幻觉”,并让激情变得更好,这是通过“过程监督”来提高大ai模型的数学推理能力。

  openai研究组在报告书中表示:“最先进的模型也可能生成虚假信息——,有在不确定的瞬间捏造事实的倾向。”“这种幻想在需要多个层次推论的领域尤其有问题,因为逻辑错误可能会破坏更大的解决方案。”

  openai对抗ai“幻觉”的新战略不是单纯地因为正确答案而给予补偿,而是因为猜对正确的推理过程而给予补偿。据研究者称,这种方法被称为“过程监测”,而不是“结果监测”。

  这一策略也可能会导致更具描述性的人工智能,因为它鼓励模型更多地遵循人类“思想”之类的方法链。除了结果监控以外,过程监控也有助于解决排序问题。

  openai的研究人员还不知道这些结果是否适用于数学以外的领域,但他们认为在其他领域探索“过程监督”的影响也很重要。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分