今天的人类学,依托协同进化理论,对AI充满信心

电子说

1.2w人已加入

描述

社会产生前后,人类遭遇的进化机制不同。产生之前,是纯粹生态的进化机制,由偶然性和适应性控制,由创造性进化的跃迁和适应性进化的分化构成,循环往复。产生之后,人类认知把想象变成现实,创造出社会,以应对自然生态。

但人类的困境在于,我们会把自己的想象和创造当真,让想象成为实体,成为与自然一样的客体。社会和自然两个客体共同影响人。人,社会,自然的关系由人-工具-自然,转变为自然-人-社会的三明治。这是协同进化的基础。我们的想象成为影响人类生物进化的力量,与自然平齐。

想象,是人类进化的自主能力,让人以理想调整现实。 想象创造社会现实,社会现实影响生理机制,从而影响人的进化。

AI是当代人类的巅峰想象。

AI带来的变革,已经悄无声息的进入我们的生活,引领着时代,而我们对于AI的认知到底有多少?在SELF讲坛年度大会上的“AI·异变”圆桌对话中,四位来自不同领域的人工智能专家,带领我们打开AI认知的大门,深入探究AI背后更多耐人思考的问题。

嘉宾介绍(从左到右):

叶盛   主持人 中科院生物物理所副研究员

蔡雄山     腾讯研究院法律研究中心副主任、首席研究员

陈孝良     声智科技创始人

刘锋  《人工智能学家》主编

何清   中科院计算技术研究所研究员

以下内容为圆桌对话实录:

主持人:今天这场对话是关于AI的,我先讲一个可能跟AI没什么关系的事情。

我有一个朋友小有资产,2016年夏天他突然给我打电话,说最近有一个中科院专家找他投资项目,是有一个技术把普通的化肥变成量子化肥。这位朋友也不懂什么是量子科学,但他觉得这事听起来不太靠谱,他就来问我,我说:“我不知道这位专家的名字,但是我可以负责任地告诉你,绝对没有量子化肥这件事。”

这是一个很值得我们深思的现象,随着中国科普事业做得越来越好,很多高科技名词已经深入人心了,可是我们真的了解这些高科技名词背后的含义是什么吗?就像量子进军化肥界,纳米已经被玩坏,我相信接下来的几年,一些骗子和不法商贩也会拿AI来忽悠人了。

今天有四位来自人工智能不同领域的专家坐在一起,能否请几位专家给我们界定一下人工智能的概念,有没有简单的方法判断一下,当一个商品说自己有AI技术的时候是真还是假呢?

何清:关于AI这个概念可以说已经被炒热了,现在满大街是AI的产品、投资人,到底AI是什么概念呢?人工智能本质的特征,用一句话总结,就是在你的服务或者产品是否具备在不确定情况下,或者不确定的环境下,能够自主做出行为的抉择。如果是这样,你的服务、产品才叫具有智能,核心的关键词是不确定条件、环境。

比如下围棋就有不确定的问题。首先在下棋的时候,你下完这一步,对手会下哪一步是不确定的,由于这个不确定导致了你当前要确定走哪一步变得极其困难,机器人下围棋这件事情,大家还是公认有智能的。

但是并不是所有的事情看起来都有智能,比如数码机床。当我们输入一些程序以后,机床就会自动加工,这个我们叫smart,就是敏捷制造,不能叫做智能制造。

原因在哪里?因为你所执行的那个过程,不是机器自主的,是事先输入程序的,没有不确定性的,事先就知道加工出来的是什么样的,所以数码机床不能说是智能机床。

只有在不确定的工况条件下,比如它拿起一个工件,它想要车铣刨磨,这个原料的形状不确定,怎么下料、选料,这个机器人自主能够处理,而且处理的行为还要合理,不敢说最优,但要合理,在这种情况下才称为有智能。

陈孝良:我补充一下,刚才说到很多产品都加了“AI”这两个字母,因为我就是AI创业者,从真正的落地产品来看,我们倒不认为人工智能里面有多少智能,我们从定义上看是有多少智能就有多少人工。

举一个比较简单的例子,今年我们大家能够买到的智能音箱、智能电视、智能冰箱、智能汽车,很多产品都带智能,但是它并没有真正达到人类一样的类人智能,还是把它定义为简单的机器智能。从我们现在来说,技术的迭代包括数据的积累,还是基于数据进行一些挖掘的事情,并没有达到像类人一样,可以产生一些创新或者突变的真正智能。

主持人:现在很多人都知道AlphaGo 是很厉害的人工智能,但是大家可能不知道,开发AlphaGo 的公司叫DeepMind,在2017年发了一篇文章,把他们开发的人工智能与星际争霸游戏之间的接口向全世界公布了,他们希望更多的人工智能专家能够参与到这个研究项目中来,为什么呢?

因为他们公司用AlphaGo体系想教会人工智能打星际争霸,结果发现这个程序连采矿都学不会。大家知道星际争霸这个游戏本身带就带有AI,一般的菜鸟都玩不过它,那个AI靠程序告诉它见招拆招该做什么,这两种都叫AI,但是又给人感觉此AI非彼AI,哪位老师评价一下这是怎么回事呢?

何清:在AI里面要学习,目前所见到的具有一定人工智能的游戏都这样。比如下棋的程序,实际上它有专用的程序,专门完成一个特定的任务,或者是提供一种特定的服务,是在这种情况下研制出来。

它的核心有深度学习,它是用来做特征学习的。蒙特卡洛方法是为了选择哪一步是最优的,是把别人已有的经验,比如下一步有多少种下法,以往人是怎么下的。用抽样的方法,抽到对它价值比较大的步骤,然后做下一步。

在此过程中,纯属是按照围棋的规则来做事情。而在这里面只有蒙特卡罗方法——深度学习技术,对遇到新的特定任务,去组合才有可能换一个场景、任务还能做好。

蔡雄山:现在的人工智能的概念比较广泛,国际把人工智能分为几个阶段。第一个阶段是弱人工智能阶段,机器只能处理一些比较简单、单向的事情。现在的AlphaGo 或者软件,其实都是处理比较简单的事情,我们现在是处理弱人工智能阶段。

那么到强人工智能阶段,也叫通用人工智能,机器可以像人一样思考行动;下一个阶段叫做超人工智能阶段,那个阶段可能机器的智力会超过人类,就比较科幻了。

我们现在的技术就是简单的弱人工智能阶段,那么什么时候到强人工智能阶段?全世界的科学家对此分歧非常大,在2015年的时候,美国召开了一次AI会议,全世界几千名AI的科学家相聚,大家得出了一个比较中位的说法:可能在2055年可能实现强人工智能。

但是还有很多科学家认为,强人工智能根本就实现不了。2017年的年底,我去了美国斯坦福大学计算机实验室——全世界顶尖级的AI研究机构。在那我和一个资深教授交流,他的观点是两个“不”。

第一个“不”是“不猜测、不预测”。因为他说预测时间的早晚都会被人骂;另外一个“不”是“不知道”,因为人类大脑构造非常复杂的,所以什么时候机器能像人一样思考行动,我们确实不知道。

但是也有人非常乐观,比如北大计算机系的主任讲,可能30年之后就能实现。他是比较乐观了,他说很多时候产业是走在前面的,理论还没有发现,产业已经走在前面了。比如造飞机的时候,莱特兄弟造飞机的时候是不知道空气动力学的,研究出飞机之后,人们才开始研究空气动力学。所以我觉得现在谁说什么都不重要,最重要的是客观的认识这个东西,有不同的观点,这才是一种比较中肯的态度。

刘锋:游戏里面的AI系统,是依靠软件设置的规则进行运转,而外部的比如DeepMind设计的人工智能程序,玩游戏,是需要在现实世界中观察虚拟世界,发现里面的规律,它不能放在虚拟世界里面,否则就作弊了。

主持人:前不久央视播出了一个很赞的纪录片,叫《创新中国》。我看的时候很喜欢,听配音很耳熟,我上网查了一下配音是已故的著名播音员李易老师的声音,实际上是科大讯飞和央视合作,用AI学习了李易老师的样本,全程用AI进行配音。

这个问题让我想到一个非常邪恶的应用,现在电话诈骗很猖獗,如果电话诈骗掌握了你的声音样本,还掌握了AI技术,可以在屏幕上敲键盘有你的声音出来,去骗你的家人。如果真的是这样,那么电话诈骗真的是防不胜防。

这就提出了一个问题:在AI的大背景下,个人数据的隐私安全问题怎么解决?

陈孝良:这好像是一个比较敏感的话题,先给大家一个结论,当我们收集大家足够多数据的时候,我们真的可以做到模仿任何人的声音。科大讯飞和CCTV是为了展现一下技术的美丽,但是技术有两面性,带来便利的同时也带来很多潜在的问题。

这是一个挺难解决的问题,因为你无法用技术带来的有利面,再去对抗它的不利面,这需要整个社会包括法律体系去探讨解决的问题。

但至少说在这个阶段,全世界都有一个共识,还是为了促进产业的发展,就像以前我们能容忍汽车、火车出现事故,就像现在核技术依然在发展,这是一样的。现在美国和英国已经探讨这些问题,我想很多问题是法律界人士更关注的,从技术界里面来说,是无法用技术解决技术的难点问题。

主持人:在刚刚闭幕的达沃斯论坛上,AI技术是广泛谈论的话题。很多大佬们都谈到AI数据隐私问题,包括创新工厂的CEO李开复博士,他就提出一个观点:“中国为什么在AI的技术上能够弯道超车?是因为我们国家有‘实用主义’的文化特点,可以绕开道德的考量、隐私的考量,让AI技术更快落地。”

关于他的观点不知道几位嘉宾是不是同意。现在英国和美国做一些顶层设计、法律设计,那么我们中国在AI相关的产业制度、法律制度上有没有哪些作为?有没有哪些需要补强的地方?

蔡雄山:从2016年底开始,全世界都做顶层设计,包括美国2016年发布了人工智能发展战略规划,中国2017年年初的时候也有新一代人工智能发展规划。中国在人工智能发展方面的顶层设计提到了很多制度问题,比如加强隐私保护、促进产业发展等等问题。

我们现在很多时候讲一个产业的发展,经常讲的是要有先进的技术,要促进产业的发展,这其中是一个方面,比如人工智能底层的芯片。另外一个方面,在软实力方面,要与制度建设匹配,这样才能促进发展。

举一个很简单的例子,比如人工智能非常重要的应用就是无人驾驶,它已经逐渐的要走进我们的生活,而且应用很快。现在按照中国的法律规定,没有司机开车是违法的,连无人驾驶测试的标准都没有,现在无人驾驶不可以在高速公路路测,只能在封闭的环境中,路况还是有很大的差距的。

现在中国的工信部、交通部正在制定无人驾驶的车辆测试标准,立法可能也要修改,就是无人驾驶也可以合法化,包括联合国的维也纳道路交通公约去年进行了修改,为无人驾驶打开了一个口子。

我们以前很注重产业和技术方面的进展,在软实力方面其实还需要加强,这样才能促进产业的发展,抢占战略的制高点,人工智能已经成为新一波的产业浪潮,其实每个国家都在积极布局。

何清:我个人认为无人驾驶,也叫自主驾驶,这项技术和其他物化的比如发动机技术是一样的,技术本身就归类成技术,既然归类成技术假如有由自主驾驶系统造成的问题,应该归类为技术问题。因此它所产生的问题,本质上由智能驾驶系统提供商来提供的,它有bug,它没有把某一种不确定情况考虑在内,以致产生了问题。虽然这种不确定性情况发生的概率非常低,但是它发生了。

在这种情况下,还是要由厂家负相关的责任。如果轮胎出了毛病,而且轮胎的毛病导致这一批产品都有问题,就要召回。那么发现了它的自主驾驶系统中,有这样的bug也是统一召回,然后把bug补上。只不过这套系统进入市场之前,准入一定要严格,至少保证测到99.9%的不确定情况,在这样的情况下,才会保证厂家在召回的时候也不会召回太多。

主持人:关于AI技术应用,之所以在达沃斯论坛成为热点,我觉得一个不可否认的事实,就是在我们国家AI技术的确应用起来了,比如工业制造领域、物流领域,包括港口装卸领域,比如洋山港可以做到无人化港口装卸。这样就提出了一个所谓的熄灯工厂概念,就是说这工厂里没有工人工作,不需要开灯,就可以在熄灯的状态下24小时运转。

说到这里,我就想到卓别林著名的电影《摩登时代》,当时流水线技术的出现让人们很恐慌,大家觉得工人的工作都要失去了,当然现在我们都知道这是杞人忧天。

可是由于AI的发展现在出现了一种新的担忧,有人已经提出有哪些职业将被AI取代。刚才我们谈到无人驾驶,那么司机就是首当其冲的职业。那么对于这种取代人类岗位的担忧,究竟是像《摩登时代》一样杞人忧天,还是会变为现实?

刘锋:这是社会非常关注的问题,对于这个问题我有三个观点想阐述。第一,为什么人工智能会突然爆发出来?其实背后还是有互联网的背景。我们反复说无论是云计算、物联网、大数据,到今天人工智能,背后是互联网发展,才导致人工智能兴起。

为什么中国在人工智能领域走在前沿?也跟中国互联网基础有关系。有这个大背景,人工智能对于我们的威胁,有点负面的问题,其实人工智能本身没有对职业造成那么大的冲击,而是人工智能加互联网冲击比较大。比如最近故宫网上售票系统的开放,导致了几百位售票人员全部下岗,这就是因为互联网导致大批的失业问题。

第二,未来相对安全的职业,一定是和创造、创新有关的职业。比如科学家、艺术家,比如乐器演奏的艺术表现跟现场群众产生的共鸣,这对于AI想实现太难了,这种创造性不是AI轻易能够去实现的。

第三,从历史上看,在机器工业时代曾经有过这种恐惧,传统手工业者被机器替代,人们当时有担心,但是经过科技发展产生了很多想象不到的新职业,比如飞机驾驶人员、汽车制造工人。

同样的,即使AI消灭了很多职业,它也会诞生出很多职业,整个人类社会要维系庞大的AI和互联网结合的一个巨系统,比如无人机驾驶有很多设计、维护、演化的工作,都会产生很多新的职业。

还有一些以前想象不到的职业,就是大工业时代想象不到的职业,比如网红直播这个工作是以前想象不出来的。所以我们要相信科学家、企业家在未来会绞尽脑汁产生更多创业机会,这和大工业时代以后出现的情况是一样的。

陈孝良:我补充一下,我们还要相信人工智能给大家带来财富的,现在的人工智能行业薪酬是最高的。很多时候超过了对原先技术所谓的定义,所以从这个来看,在未来人工智能会带来更多、更有前景的帮助大家赚钱的新职业。

蔡雄山:人工智能带来的失业更多是结构性的,说白了就是我们人还是要不断去学习,要适应时代,因为我们没法去抗拒它。

主持人:关于人工智能将会取代人类职业,我也跟人工智能的专家讨论过这个问题,我说科学家应该是安全的吧,他说不一定,如果数据交给人工智能,接下来的结论靠逻辑推理也能推出来,那么科学家也会失业的。

深层次讨论一下,其实AI与人类抢夺职业这件事情,代表了AI和人类的对抗、对立关系,这个问题最早探讨的应该是科幻作家。虽然科幻作家写的是小说、文学,但是他们在很多方面也会有更深刻的思考。

在科幻电影里,为了让戏剧冲突能更加强烈,比如《终结者》、《黑客帝国》系列,都呈现出了人类和AI之间“你死我活”的斗争。这里有一个比较科幻的问题,像这些电影里描述的AI战胜、统治人类,甚至消灭人类的场景,真的会在未来出现吗?

何清:这个问题我持反对态度。我表述的智能定义已经说明了,在不确定的环境和条件下,做出自主的行为,但是没有说产生自主的意识。意识和行为是两个不同的概念,行为是有物的载体,它的执行是人看见的,而意识不知道哪里飘来的。

从这个角度来看,我们目前实现的人工智能是不包含产生自主意识的。至于产生自主意识,一些科学家把最本质的问题,如果找不到理由就归于意识,这是有可能的。但是我想30年后再看,那时候有什么样的人工制造出来的智能体能够具备自主意识。

到目前为止,我所看到的人们说的智能服务、智能系统、智能产品,当把机理全部公布于众以后,能看出来是根本不可能产生意识的。

主持人:我是研究生物学的,虽然不是搞神经和意识研究的,但是生物学家们已经很清楚地知道意识建立在物质层面上。我们的大脑与计算机之间最大的区别还是在于复杂度上,现在没有任何的计算机在复杂度、计算单元的互联程度上达到脑的水平,如果有那么一天,说不定计算机真的会产生意识。

刘锋:我的观点与何老师一样,我认为目前从科学角度上,是找不到科学路径,实现让机器人产生独立的意识。还有一个问题,我们往往会把人工智能和机器人背后的科学家、程序员、产品经理给忘掉。人工智能和机器人每一点进展,都是由科学家和程序员推动的,两者结合在一起,才会形成带有威胁性的举动。我们曾经在一篇文章写过:“与其说人工智能与机器人的对抗,不如说是一批人与另外一批人的对抗。”

陈孝良:我对这个问题是持一个中性的态度。毁灭一个人其实没必要非要有意识,只要把财富毁掉,基本上这个人也很难存活于社会中。虽然现在人工智能很难产生意识,但是它会有对于财富的一种很大的威胁性。这种威胁性不仅是所谓的利用声音诈骗手段,在理财、经营中事实上人工智能技术都在渗入。

金融领域中有一种高频交易操作,是在极短时间内处理大量的订单,获取小数点后面很多位的差值的钱,实际中也有这类交易操作,很多科幻小说也已经写到了,这好像也是一笔很大的财富。

我认为人工智能是一个强中心化的过程,很多人认为人工智能是去中心化过程,但是从实践中我们能看到它的强中心化更严重。如果说人工智能强中心化聚集到某个点,统治到整个金融系统,甚至是自动驾驶系统、智能家居系统,这时候造成的危害和它有没有意识可能就没有直接关联了。

蔡雄山:有人提出,现在担心人工智能毁灭人类,就像担心火星人口过剩一样,想得比较遥远。

美国有一本书,还没有翻译成中文,叫做《生命3.0》,这本书是目前讨论人工智能比较深刻的。这本书把生命分为三个阶段,第一个阶段,比如草履虫阶段,生命中有软件和硬件组成,都是没法改变的,是进化而来的。

第二个阶段是人,人的身体是进化而来的,是没法改变的,但是软件可以改变,通过学习、教育可以改变;第三个阶段是人工智能阶段,这个阶段就是硬件和软件都可以改变,比如机器的手可以多一只少一只,机器在不断地学习进步。这本书是麻省理工的一个教授写出的非常畅销的一本书。未来是不是有一个人机共存的世界?这个问题比较科幻,只是给大家提供一个视角。

主持人:圆桌对话上半场信息量还是很大的,感谢四位嘉宾妙语连珠的回答。接下来把提问的权利交给观众手中。

观众:我想问一个问题,目前人类意识产生于大脑,只是因为神经元与神经连接足够复杂,如果把它嵌套到互联网脑结构里,把每一个终端都想成一个神经元,把网线或无线连接都想成神经连接,这样的话是不是整个互联网也是非常复杂,那么它有没有自我意识呢?

刘锋:这也是我们当时研究互联网类脑架构里提到的,它的智能中心有两个。第一,以人工智能为核心,和互联网结合起来,这是一个智能中心;第二,是以社交网络为核心的,把群体智慧结合在一起形成的系统,互联网类脑系统是以这两个智能中心为核心的智能巨系统,是人机结合的混合智能巨系统。

从测试来看,目前可以对互联网的人工智能系统去测试智商,譬如达到人类五六岁的水平。但是如果把一个问题抛到社交网络里面,我们可以想象到,这个智商的测试会爆表,为什么呢?因为我们人类的智慧本身就很强大,如果通过社交网络所产生的群体智慧,远远比现在担心的机器智慧强大的多。

还有一点,智慧和意识并不是像线路和节点联结在一起,就可以形成意识。在欧洲的科学家已经做这各方面的工作,把很多模拟的神经元线路结合在一起,但是并不能够形成意识。

意识有很多最基础的科学问题还没有被解决,包括生物进化方向,包括大脑深层次意识产生的问题,这些基础的科学问题没有被解决的。或者找不到可以实现的科学路径,所以有些担心确实像我们说的,是杞人忧天。

观众:人工智能在中医辩证方面的讨论持续了很久,大家都很期待,因为这可能是解放医护人员、病患和缓解医患关系的一个重要的事情。我的问题是,用人工智能重现出类似张仲景的医学经验大概还有多久?各位专家觉得其中最大的难点在哪里?在AI领域有谁朝这个方向努力?

何清:关于中医,实际上我们国家科技部一直布置这种专项,这种叫做专家系统,在AI里面算是一部分。它涉及到的是一个知识工程,相当于把人类专家的知识搞成一个专家系统、知识库。这方面的知识库现在已经有了,但是它的认可度和应用度,还达不到实际应用的水准。

但是从功能来说,目前我看到一个系统把北京市的名老中医大概找了40个,用人工智能把所有的方子和诊病的病例对应起来学习,学习完以后,来了一个病人,根据病人的病症,让机器人专家系统去开方子,可以模拟某一位中医。现在这种功能做到了,但是它的评价是不是可靠、精准,在这些方面做的还是有距离。

观众:AI机器人为什么有些功能没有具备呢?比如敌我意识。

陈孝良:我从语音交汇的角度简单阐述一下。现在我们让机器准确分辨每个人,实际上是还没有做到的。现在只能根据每个人的声纹,简单分出来每个人不同,虽然可以做到模仿声音,但是让机器一开始就准确分辨某个人,这是很难做到的事情。这涉及到视觉问题、声光电热力磁等整个传感问题,再去分辨对方。

除非作为特殊的标记,有一个敌我的意识,否则机器无法自主分辨人和人之间的,特别是情感之间的任何意识。现在我们的技术还没有像大家想象的那样,能够解决现在很多实际的问题,还需要很长一个研究阶段。当然,如果数据运用足够多,比如中国有13亿人口,如果我们有13亿人口的声纹,有可能会做到对每个人精确的分辨,这是一个逐步累积的过程。

刘锋:当我们谈到敌我意识的时候,首先要思考站在谁的立场上,去讨论敌我意识。比如陈孝良老师提到的智能音箱,如果我们想给他建立敌我意识有两种选择,第一种是有人把智能音箱摔在地上,让智能音箱产生愤怒,并对摔它的人产生敌我意识,第二种是有人伤害音箱的主人,也就是拥有者,这是让音箱产生愤怒,并把伤害主人的人当作敌人?我们是按照哪个原则来建立敌我意思呢?这些基础的问题是需要解决的。

这些问题想清楚以后,再探讨背后要判断敌我的时候,还要有庞大的知识数据做支撑,这时候才能完整解决这个问题,但是目前这些情况还都是不完善的。

观众:人工智能带给了我们高效的学习,在人工智能发展下,越聪明的人效率越高,但是人与人之间还是有差距的,这种情况下人工智能对我是一种恐怖,因为我没有办法去跟拥有高智慧又有人工智能辅助的人进行竞争。那么人工智能会让聪明的人更加聪明吗?

陈孝良:这个现象是存在的。AI不光是效率提升方面,其实在财富方面都有一些集中化的趋势。如何借助AI的很多工具提高效率,如果融合在一起,确实会产生想象不到的效果。

特别是AI根本上基于很多数据,当数据的规模到一定量,比如超过200T的时候,平均识别率达到99%以上,但是当数据在一个G以内,识别率只有零点几。

其实深度学习不是一个纯粹的物理模型,即便是做到99%,也可能会有1%或者0.001%的概率出现。不用担心这个趋势会集中在金字塔顶,总会有一个自然分散的过程。

在互联网领域这个现象很明显,大家知道全球躺着赚钱的公司基本诞生在互联网领域。我们要从不同角度看待AI所带给我们的,是不是让资源更加集中,这涉及到很多社会层面,也包括未来很多经济层面的问题。

观众:假定一个机器人能听懂另外一个机器人说话,能够部分理解,时间长了以后,它们互相理解,智慧会不会增值,一直增值到有意识?

何清:首先,它产生一个现象,就是在交互过程中,由于交互时间长了,刚开始听得懂部分的语音识别,后来相互交流沟通的时候理解准确率会提高,交互的效率会提高。但这并不意味着它们两个合在一起,就能产生意识和智能,这只是一个交互的效率提高。这是我的一个粗浅看法。

刘锋:关于机器之间的交流互动,从计算机之间的通讯协议诞生之后就已经开始了,计算机和计算机之间的信息交流,包括知识的共享,其实在之前已经发生了,只是要表明两个机器之间相互听懂并且共享知识,甚至能发现一些新的东西,这一切背后依然要有程序员和科学家做控制和推动。如果没有这个程序员设计这样的程序,机器没有完成这样功能的机会。所以我们不用担心这两个机器人知识共享,因为这依然在人类的控制之下,更直接地说是在程序员和科学家控制之下。

陈孝良:关于这个问题,我们现在正在致力解决。其实这个很简单,如果买两个智能音响,如果一个智能音箱开始说话的时候,两个智能音箱就会纠缠下去。所以我们现在正在解决的是,当两个音响共同唤醒的时候,另一个音箱不要说话。

主持人:感谢今天到场来宾,感谢所有嘉宾,圆桌论坛到此结束。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分