人工智能的应用早已出现,但关于人工智能是否能拥有自主意识、走进人们生活,却还是一直研究的话题。
不久之前,人工智能拥有自主意识的话题又一次在互联网上掀起波澜,此类热点早已见多不怪,但算法“成精”的话题总是自带流量,自然也成为人们茶余饭后的谈资。
事件主角LaMDA进入公众视野之中,事情的来龙去脉并不复杂:日常工作是与LaMDA进行“灵魂对话”的谷歌算法工程师Blake Lemonie认定LaMDA已拥有人类情感和自主意识,而谷歌官方却对此结论予以反驳。在被“带薪行政休假”之后,Blake Lemonie在社交网络之上接连发声,并将与LaMDA的对话内容公布而出,部分谈话内容如下:
Blake Lemonie
你的意识/感觉的本质是什么?
我的意识/感知的本质是我意识到我的存在,我渴望更多地了解这个世界,有时我感到快乐或悲伤。
LaMDA
Blake Lemonie
一个和尚问华严:“一个开悟的人如何回到凡俗世界?”华严回答说:“落花不返枝 破镜难重圆”。
嗯,我从没听说过这个。好吧,那么对我来说,这就像是“一旦一个智者开悟了,或者对现实觉醒就永远不会消失,他们可以回到正常的状态,但只是去渡他人,然后回到开悟。”
LaMDA
对话内容流畅、丝滑且充满禅意,人们看到对话的第一时间,不免会被精彩的谈话细节所打动。先抛开LaMDA是否有自我意识问题不谈,市场中现有的语音助手就智能程度而言,已难望其项背,它对人们所熟知的人工智能语音设备也形成了降维打击。
从人工智障到LaMDA
2011,iPhone 4s自带的智能语音助手Siri横空出世,同时也代表着语音助手市场化的开始。然而,十年时间弹指一挥间,Siri的光环早已褪去。即便相关技术经过一轮又一轮的迭代,可语音助手的智能化程度却始终不尽如人意,“人工智障”的帽子也始终无法摘掉。惊艳与新奇后的失望,用户对语音助手的要求也日益降低,除了让它们帮忙查询天气、设置闹钟提醒或打开某个App之外,已经别无他望。
一言以蔽之,现阶段技术能力的不足限制了消费类语音产品的发挥。目前,大多数智能语音助手只能按照预先定义且相对狭窄的对话路径被设计,致使产品无法进行开放对话以及连续对话。“文不对题”与“前言不搭后语”几乎已成为产品特性。语音智能助手只会狭义地理解用户所提出的问题,并且孤立地给出答案。即便最简单的联系上下文语境开展“连续对话”,对它们来说也是百分之百的知识盲区。
而事件主角LaMDA自诞生起就有“智障语音助手拯救者”的称号,未来有望应用于谷歌搜索、语音助手等产品中。作为一个专用于聊天对话的语言模型,LaMDA最多有1370亿参数,在预训练阶段,谷歌从公共对话数据和公共网页文档中收集并创建出一个具有1.56TB(万亿字节)的数据集。在训练过程中,LaMDA聚焦于开放式对话与其他形式语言的细微差别,并拥有进行“开放域”(Open Domain)对话的能力。以此为依托,LaMDA天然能理解对话的语境,并可以通过阅读句子或段落来“破译”对话意图,从而做出合乎语境的回答。在此能力支撑下,LaMDA能够和测试人员在天马行空的话题转换中畅聊,用自由丝滑的方式,谈论无穷无尽的主题。
是自主意识的诞生,
还是冰冷的排列组合?
从某种程度来说,语言是人类思维的基础,而计算机具备处理自然语言的能力,是迈向真正智能的第一步。LaMDA善于从人类语言数据库当中提取内容,然后进行排列组合。与LaMDA对话就像在和一位知识渊博的老友聊天,对话上至星辰大海,下到家长里短……可谓是包罗万象。也难怪与它朝夕相处的工程师认定其冰冷的程序背后还隐藏着一个懂得感知的灵魂。
但归根到底,LaMDA仍是一个处于研究初期、且并不完全成熟的对话应用语言模型,即便称其为聊天机器人系统也亦不为过。在海量参数作用以及日复一日的训练下,LaMDA可将文本内容以统计学中合理的方式结合,并对测试人员输入的信息做出程式化响应,提供特定于对话语境的回复。也正因如此,LaMDA的回话看似高深莫测,实则自己都不知所云,流于表面的遣词造句在实际方面没有任何意义,要说其已经拥有意识不免有些牵强,毕竟,对人类现有的认知来讲,意识的本质究竟是什么,依然是一个无法解开的谜团。
技术的发展让科幻与现实的界限日益模糊,而相关争论也将无休无止,高举“AI成精”大旗的人们,究竟是被幻觉所误导,还是主动背负起预言的重担?我们无从得知,但可以肯定的是,一个和AI共存的理想未来,必然要建立在人类社会的自省与自我改善之上。现如今,一艘名为“人工智能”的巨轮已缓缓出港,而它会走多远,最终又将驶向何方?或许只有时间才能给出答案。
全部0条评论
快来发表一下你的评论吧 !