机器人
编者按:2016年除了人工智能、虚拟现实技术受到了极大的关注,商用机器人逐渐出现在我们生活中,家庭陪伴机器人也越来越多,可以看到未来机器人市场前景广阔,但也难免面临挑战。今天小编为大家推荐一篇去年的文章,该文章详细介绍了目前机器人面临的十个挑战。
现在的机器人已经能进行各种各样的工作了,也具有了一定程度的人工智能,但是,像“查派”一般的机器人似乎还遥遥无期,那么,哪些问题是机器人面临的最为紧迫的挑战呢?
在我们的生活中,从A地点移动到B地点也许是我们每天都在做的事情,而且是一件极其容易的事情,我们有不同的路径可以到达不同的地点,可以根据道路的状况甚至是随个人的心情来选择到达地点的路径。而对一个机器人来说,主要是通过导航以及预先的设置来进行点对点的定位。但是,当预设的环境被改变后,可能就变得有些棘手了,机器人必须要能够了解、适应新的环境,理解分析正在进入脑中的数据,重新进行自主的判断与选择。
目前,机器人专家的解决方法是给机器人装备各种“技能”,通过给机器人装备大量的传感器、扫描仪、摄像机和其他高科技工具等多管齐下的方式来评估周围的环境。在水下的机器人还要披上“声呐技术”的魔法斗篷以应对水对光线的干扰。这些视觉装备组成了一组完整的立体视觉系统,从而帮助机器人拥有广阔的视野,便于收集详细的环境数据。
机器人收集相关环境的数据只是成功的一半,更大的挑战是机器人如何利用那些数据来进行决策。现在,研究人员主要是通过使用预先设定的地图或者在机器人运动中即时构建一个映射地图来为他们的机器人导航。而必须要将预设地图与即时数据结合起来,才能使机器人根据环境自己开辟路径。研究人员正在通过更强大的计算机和先进的概率算法来解决这个难题。
现实中,我们已经能看到机器人辅助各行各业的工作,比如服务机器人可以收发包裹,可以打扫卫生,甚至今年日本还有一家全机器人服务的酒店开业了;而在工业上,还有机器人在流水线或工程中进行特定的工作等。这些机器人都能展现出一定的技能,但是它们通常进行的是一种定制化的工作,并不能表现出灵巧性,不能自由顺畅地行走、跳跃等。
能模仿人从一堆凌乱的东西中从容地选择需要的东西,还能有意识地对周边环境做出反应等灵巧性的技能,对机器人来说是十分困难的。过去几年,研究人员在机器人的兼容设计和方面已经有了显著的进步。兼容性越好,一个机器人的灵活性也就越高,能够模仿人类的动作,还能够进行一定程度的数据决策;刻板的机器则相反,缺乏灵活性。
2013年,佐治亚理工学院的研究人员制造了一个关节弹簧的机械臂,这个机械臂不仅能够自由弯曲摆动,并且还能与环境有良好的互动,就像是人的手一样有很好的灵活性。研究人员还为其植上一层“皮肤”,这些皮肤遍布着红外传感器,并配备上具有凸出成脊状线的电子指纹,使机械臂不仅能探测到周围的东西,还能便于机械臂抓取物体。
这个高科技手臂再配上更发达的视觉系统,一个行动敏捷的机器人就诞生了,这个机器人可以温柔的爱抚动物,也可以在众多的东西中选择需要的东西,但是,这对“查派”来说仍然是不值一提。
作为计算机科学的奠基者之一,图灵曾在1950年做出了一个大胆的预言:总有一天,机器人可以流利地与人谈话,甚至我们都没意识到是在和机器人聊天。可惜的是,图灵没能看到他的期望变成现实,这是因为语音识别与自然语言的处理不一样,它比自然语言处理更加复杂。在自然语言处理中,我们的大脑会从谈话间的语句中抽取出谈话所表达的含义。
最初,科学家认为这就像是将简单的语法规则嵌入到机器的记忆内存中一样简单。但是对任何一门特定语言的复杂语法进行简单复制被证明是不可能的,所以就目前的情况来看,让机器人能像人类一样自由的交流是难以实现的。即使为机器人提供了词语的含义与规则,语言学习对它们来说仍然是一项艰巨的任务。因为人类的大脑思维是难以搬进机器人大脑的,有一个具体的例子能表示这种情况:对不同的单词,例如“new(新的)”和“knew(知道)”,或者是“bank(银行)”和“bank(堤岸)”,人类可以理解这些词汇的差异性,但是科学家却没能将这些功能分解成离散的、可识别的规则,因此,在对机器人的语法嵌入上难以做到与人类语言功能类似的效果。
现在许多机器人的语言处理是在统计数据的基础上进行的,科学家给它们植入大量的文本集合,被称为语料库,然后让它们的“大脑”将长文本分解成若干的小块,并进行文本分类,找出哪些词语会经常组合在一起,这些词语的组合顺序是怎样的。这就需要机器人在统计分析的基础上学习一门语言了。例如,对一个机器人来说,词汇“蝙蝠”会有词汇“飞”或者是“翅膀”搭配,“蝙蝠”就指的是会飞的哺乳动物,而“球棒”后面跟着的词汇“球”或者“手套”指的是团队运动。但是,仅仅这样就能使机器人实现与人自由的交谈吗?
如果一个从来没有打过高尔夫球的人想学习如何挥杆,他可能会去阅读有关的书并尝试挥杆,或者他可能会看一个老练的高尔夫球手的挥杆动作来学习。如果学习新的行为,这是一种更快更容易的方法。
在《超能查派》中,我们可以看到“查派”能不断学习新技能并能完美应用这些技能。他不仅能唱歌跳舞,能舞刀弄剑,还能展现高超的驾驶技术。但是,机器人专家却面临着这样的困境,当他们试图制造一个能够自主学习新技能的机器人,就需要将一个活动分解成不同的精确的步骤,然后将相关信息通过编程植入机器人大脑。这种做法是假设了活动的每个方面都能被识别、描述和编码,然而事实证明,这并不是那么容易的。例如,高尔夫球的挥杆有一些特定的方面可能难以被描述,比如手腕和肘部相互间的力量作用就难以用语言形象地描述。这些微妙的细节更容易通过演示来交流而不是通过讲述的方式。
最近这些年,研究人员已经有一些教导机器人模拟人类操作的成功经验,他们称这些为模拟学习或是示范学习。机器人通过装在身上的广角变焦镜头来看到人类演示的特定过程或是活动全程。然后由算法处理这些数据来产生一个数学函数,将视觉映射到实际行动中。当然,机器人在示范学习中必须能够忽视人类行为的某些方面---例如挠痒、眨眼等个人问题,这是机器人与人类处理方式的不同所在。
对机器人来说,学习如何欺骗一个人或者是欺骗别的机器人是一个巨大的挑战。欺骗是需要想象的——这是将外部不存在的对象形成具体的想法或是图像的能力,而这种能力正是机器人缺乏的。机器人比较擅长处理从传感器、相机或是扫描仪中输入的数据,并将这些数据根据人类的设置转换成特定的思维或者图像,但是并不擅长理解传感器数据之外的东西。
“查派”在成长历程中,经历了人类的谎言与欺骗,从茫然不知,成长到了形同熟谙人情世故的“人”。虽然现在的机器人还难以做到如此惊人的效果,但是,佐治亚理工学院的研究人员在实验中已经实现了能够将松鼠的一些欺骗技能传授给机器人。首先,他们研究了绒毛啮齿类动物是如何通过引导竞争者去不同的地方来保护它们埋藏的食品场所;然后,研究人员将那些行为编码成简单的规则并加载到机器人的大脑中,机器人就能够使用算法来判定在什么样的情况下欺骗起作用,并且能够提供一个虚假的交流来误导机器人伙伴离开它们的藏身之处。假以时日,在人工智能的不断发展下,这种技能也许会日趋成熟。想象一下,我们将如何应对一个会撒谎的机器人?
在美剧《摩登家庭》中,机器人女仆罗茜不仅能够对话、做饭、打扫房子,而且还能迎合主人乔治的需求。在该剧第一季的第一集有这样的场景:乔治的老板斯佩斯利先生到乔治家里吃晚餐,晚餐结束后,斯佩斯利拿出雪茄后,罗茜就跑过来给他点上。这个简单的动作表现了一个复杂的人类行为――即,根据刚发生的事情来预测接下来会发生什么事情的能力。
就像欺骗一样,预测人类行为需要机器人去想象一个未来的状态。它必须有这样的能力:“如果我们观察到一个人在做X事件,然后在这个事件的经验基础上,我可以预测他/她接下来可能会做Y事件。”这对制造智能机器人来说是一个巨大的挑战,但是科学家一直在为解决这个挑战而努力。美国康奈尔大学的一个研究小组已经开发了一个自主的机器人,这个机器人能根据环境中的对象互动来做出相应的反应。它先用一幅3D摄像机来获得周围环境的图像,接下来,机器人的“大脑”从混乱背景中识别关键对象并将其隔离。然后,利用从先前的培训课程中收集的大量信息,机器人在与它所要接触到的对象互动的基础上,产生了一系列可能的预测并做出最好的预测:即,接下来会发生的行为是什么。
虽然康奈尔大学的机器人在某些时候仍然会猜错,但是在相机技术与算法的不断改善下,它们在稳步地进步。
如果你要完成一项复杂而又庞大的工作,你是否觉得打造一个功能繁复的机器人太麻烦,从而更愿意部署更小、更简单的机器人军队,然后协调它们完成复杂的任务?
但这就带来了一个挑战:一个机器人在一个小组内工作需要准确定位自己与队友的关系,并要进行有效的沟通与互动。为了解决这些问题,科学家转向昆虫的世界,在这个世界里,昆虫能够通过复杂的群体行为来寻找食物和完成整个群落的任务。例如,通过研究蚂蚁,研究人员知道蚂蚁个体利用信息素与彼此交流。
机器人可以用同样的“信息素逻辑”,它们依赖于光或是红外线而不是化学物质来交流。它们的表现就像这样:一群微小的机器人分散在一个限定的区域,都在随机地探索这片区域,当一个机器人探索到离开的出口,它就留下一道光线踪迹。下一个机器人探测到这道踪迹,知道跟着这条踪迹来做一样的运动,并在它离开的时候留下自己的光线踪迹。当这条踪迹不断被加强,就会有越来越多的机器人找到这条踪迹并继续加强。
一些研究人员还发现使用声波信号也能成功进行这样的实验,因为声音可以被用来确保个体机器人不会走太远或者可以像人类一样被声音吸引到一块。
上帝告诉亚当和夏娃:“生养众多,遍满地面。”一个机器人收到同样的指令可能会觉得很困惑或很受挫。因为制造机器人是一回事,制造一个可以自我复制或能再生丢失或损坏的组件的机器人又完全是另一回事。
有趣的是,机器人不会寻求类似人类的有性生殖模式,因为这样的生殖模式实在是太复杂。但是,简单的动物进行的无性繁殖就很神奇:以水螅为例,一个小囊气球从母体中分离出来,然后破开后成为一个新的,基因完全相同的个体。
科学家正在机器人身上实施这一基本的克隆程序。这些机器人由重复的元素制造的,通常是多维立方体,这些立方体中包含了相同的机械和自我复制的程序,是可以被分离的,并且功能不会被改变。而且立方体的表面有磁性便于机器人分离身体的元素,这些立方体沿着对角线可以被分成独立旋转的两块。而一个完整的机器人由特定排列结构的几种立方体组合而成,只要提供立方体,一个简单的机器人就可以像水螅一样,分离出另一个具有相同特征的机器人。
我们每天都要与人互动,还要做出数以百计的决定。在每个决定中,我们要衡量我们的选择是否正确,是否公平公正。如果我们希望机器人也能像我们一样,在做决定的时候考虑是非对错,那它们就需要理解伦理道德。
给机器人定义道德行为也是一个巨大的挑战,主要是因为一组通用的、被普遍认可的道德原则并不存在,不同的文化有不同的行为规则和不同的法律体系。尝试着去制定一个有关全球的伦理道德准则,再让机器人去学习几乎是不可能的。
不过,研究人员可以把道德问题局限在某个具体的情境下来让机器人理解。例如,一个局限在特定环境的机器人――比如在厨房或者是病人的房间里,可能只需要少量的规则学习,就可能合理的做出良好的道德决策。机器人专家选择了一些日常行为案例,并将其中的道德选择信息编入一个机器学习算法。这些选择是基于三个浮动标准的:一个动作会有多好的结果,它能预防多少伤害以及如何衡量公平。然后用算法输出一个伦理道德原则,这个原则能在机器人做决策的时候用来作为依据。正如在《超能查派》中,“查派”的道德观念是需要人类的教导,归根结底,还是人类的自我道德标准影响了机器人的道德行为。所以,要想机器人能做出良好的道德选择,人类必须先自我检视自身的道德尺度。
“世界上最美好的事物是不能被看到或触碰到的。那是要用心去感受的。”如果海伦?凯勒的这个观察是真实的,那么机器人将注定错过这最美好的事情。毕竟,它们擅长的是感知周围的物质世界,而不能把传感数据转变成特定的情感。它们不能看到爱人的微笑,不能感受快乐,也不会看到人们扮鬼脸而被吓到。
这也许是人类与机器的最为明显区别。试想一下,你如何能教机器人坠入爱河?你如何用程序表现出受挫、厌恶、惊奇或是遗憾等情绪?这些在机器人身上值得一试吗?
有一些科学家认为是可以的。他们相信未来的机器人将会整合认知情感系统,这样,他们就能够更有效地与人类交互学习。不管你信不信,已经有原型能表达有限范围的人类情感。Nao是由一个欧洲研究小组开发的机器人,它已经具备一岁小孩的情感素质了。它可以通过姿势和手势的结合来表达快乐、愤怒、害怕或骄傲等情感。这些展示的行为来自于黑猩猩和人类婴儿的研究,然后被研究人员编程到Nao的大脑中,但是机器人表达哪一种情感是根据它与附近的人们或对象的交互来决定的。在未来的若干年,许多像Nao一样的机器人也许会成长到成人一般的情感专家,到那个时候,它们会在不同的环境中工作,例如医院、家和学校,在那里它们能够进行正常的人类行为,能教书,能诊病,与人类和谐共处。
如果机器人面临的这些挑战都解决了,是不是就能开发出像“查派”一样聪慧的机器人呢?你也许会发现,这些挑战都有一个共同点,那就是都需要思维能力。人工智能专家认为,人类大脑的归纳推理能力是能实现机器人真正自主思考的自主系统的关键,“查派”正是拥有这种能力,才能从它所经历的事情中改变自己,形成独特的自己,喊出了那句“我是查派”。现在人类还没有实现这种愿景,但是已经正在不断朝这个目标前进,如果真正的自主系统出现,想象一下,那是一种怎样的情景!
全部0条评论
快来发表一下你的评论吧 !