ChatGPT等大型语言模型的出现会带来哪些风险

人工智能

622人已加入

描述

近日,美智库兰德公司高级工程师克里斯托弗·莫顿(Christopher Mouton)在C4ISRNET网站撰文,分析ChatGPT等大型语言模型的出现给国家安全带来的新风险。主要观点如下:

文章指出,像ChatGPT和Claude这样的大型语言模型可提供广泛的有益应用。然而,这些语言模型的使用也存在重大风险,需要伙伴国之间沟通协调,以建立一个坚实的一体化防御机制,抵御恶意信息行动的威胁。

大型语言模型可以帮助生成创造性的故事情节,精心策划营销活动,甚至创建个性化的餐厅推荐。然而,他们经常生成一些明显错误的文本。这种设计不仅给人工智能的日常应用,而且对美国国家安全都将产生深远的影响。

人工智能生成的内容可以展现出一种被称为“真实性”的现象。“真实性”一词是由电视台主持人斯蒂芬·科尔伯特在21世纪初创造出来的,用来描述信息是如何感觉正确的。这一概念强调,尽管缺乏事实的准确性,但具有高度连贯逻辑结构的内容可以影响聪明、老练的人决定事情的真伪。

我们的认知偏见意味着写得好的内容或引人注目的视觉效果会让叙事看起来比实际更加真实。正如一位研究“真实性”的学者所描述的那样:“当感觉事情容易处理时,它们就会被认为值得信赖。”

美国的敌手可以操纵人工智能模型听起来“真实”的潜力,模仿人类的写作,创作连贯的、结构良好且有说服力的句子,以获得优势。互联网具有全球影响力,通过颠覆性的“真实性”入侵,为他国介入创造了一个强有力的媒介。

国家行为体正在利用数字技术开展敌对信息活动,利用在线工具和信息作战来达成他们的利益。国家行为体可以操纵认知流利性偏见和真实性来塑造社会政治舞台,扩大人工智能驱动的语言模型在恶意信息作战、大规模鱼叉式网络钓鱼活动以及日益可信的深度伪造媒体中的潜在滥用。

在信息作战中利用认知流利性偏见会给虚假信息披上可信的欺骗性外衣,导致政治制度动摇、社会不稳定。

微软总裁布拉德·史密斯在5月25日的一次演讲中表示,美国将“必须特别解决我们最担心的外国网络影响力作战,俄罗斯、伊朗等国政府已经在开展此类活动。”

俄罗斯黑客试图编造乌克兰总统泽连斯基呼吁乌克兰人民放下武器的视频,但这种粗糙的深度伪造行为很容易被识别。但现在很明显,深度伪造问题已不再是学术性问题。现实已经表明,恶意视频、伪造文件和伪造的社交媒体账户可能会从最初的被视为粗糙变为真实传递欺骗信息。

依赖虚假信息开展的颠覆活动与日俱增,加之恶意行为体加大行动力度,突显出美国及其盟国做出战略性回应的必要性。为了应对这些发展趋势,美国决策者们需要制定一项全面的战略,该战略应建立在警觉的监测、积极的预警及国际合作的基础上。

该战略的基石应该是对信息环境进行警觉地监测。由于人工智能和机器学习的进步,持续监测对于早期探测和消除虚假信息活动至关重要。

这一观点与美国防部提出的提升“监测、分析、表征、评估、预测和可视化”信息环境的能力的想法相呼应。在2016年版《信息环境下作战战略》中,国防部对此进行了详细阐述。为落实该战略,军队和情报部门需要专门从事信息作战的专业化部队,他们可以提供对所收集的数据进行解读以及基于这些数据采取行动所需要的关键专业知识。

美国政府还需要一套强大的预警系统,可同时宣传真相并揭露虚假信息。及时有效的预警有助于保护公众免受虚假叙事的影响,大大降低虚假信息作战的影响。在这种情况下,真理的力量是一种强大的工具,它是应对虚假信息腐蚀作用的有效反制措施。

最后,美国需要强化与国际盟友的战略伙伴关系。恶意虚假信息运动的全球性要求反制措施同样具有全球的广度。这些伙伴关系提供了宝贵的当地知识并增进了彼此之间信任,二者都可以大幅提高预警的可信度,增强社会抵御虚假信息的能力。

审核编辑:汤梓红

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分