机器人
AlphaGo打败柯洁和李世石后,人们开始担心:人工智能是否会取代人类?无论是《机械公敌》,还是《终结者》,都描述了人工智能与人类大战的故事。人工智能究竟能有多聪明?他们会欺骗人类甚至取代人类吗?在第四届中国机器人峰会上,美国机器人界”摄政“教授,机器人之父Ronald C.Arkin就这一问题展开了深入的讨论。让我们再次回顾这个报告,深度剖析人造良知与人工智能。
随着人工智能的发展,会造出能够欺骗的机器人吗?是世界末日?还是美好未来?被誉为美国机器人界”摄政“教授、”人造良知“机器人之父的美国佐治亚理工移动机器人实验室主任、电子计算机学院首席教授Ronald C.Arkin,以多年的研究经验在第四届中国机器人峰会中深度阐释了机器人欺骗的利弊与研究现状,让我们聆听Arkin教授的精彩演讲。
为什么要有欺骗
欺骗很重要。它不仅仅对人际关系重要,对自然界中的生物也很重要。许多不同的物种大多数都会欺骗,因为这是存活的先决条件,需要它来逃避侦测,需要它来抓住猎物,或需要欺骗找到优秀配偶。
其他非特定的情况下,欺骗可能不是最好的方式,但它有不同的考虑,一个关键的事实是,真正表明它们的高智能,某种程度上必须变得更加聪明。图灵测试本身就是一个欺骗。
自然界有这种欺骗的例子:当猎食者来袭时,母鸟会佯装翅膀断了,那么猎食者就会试图攻击母鸟,而不去追寻鸟窝中的蛋,这样就能保护它的鸟窝。
你可以欺骗方式让孩子吃蔬菜,这是一种更具创造性的办法,这种谎言是美好的。事实上它还能让人们喜欢你,这也是很好的社会智慧,野兽般直白不是必要的与人相处方式。
你希望机器人对你像野兽一般诚实吗?或者像人的行为具有社交欺诈性吗?一个非常重要且有用的例子,电影中机器人Tars非常酷,宇航员问Tars诚实指数是多少,机器人说有90%,宇航员问90%吗?
机器人说,绝对的诚实与情感动物沟通时,并不是最能交流和安全的形式,这十分正确,所以宇航员说我们会信个90%。其实这与某些方面的研究联系起来,我们也能做得更好,可借此调整机器人的诚实等级。
研究机器人欺诈也是非常有意思的工作。用评估表来展示观念、领导能力、年龄、食物来源方式等,另一边有像石头、剪刀、布这样的机器人骗子,事实上这本是人类擅长的,这些机器人很聪明会用来欺骗。
在军事中也用到欺骗:孙子说“兵者,诡道也”。马基雅维利的政治观点也说,虽然欺骗在其他事情上是可憎的,但在战争中却是值得称赞和光荣的。
回溯历史,各种宗教传说都有一些欺诈,这些故事以不同目的永远留存下来。这种“战争恐惧欺骗”条令,会让士兵知晓这在中国军队中用“兵不厌诈”。
我们通过“相互依赖理论”方法,做了个怎么让机器人相信人的研究。一个好的指令是会告诉你,欺骗他人首要做法就是获得信任,交流时标记好谁欺骗人,谁欺骗机器人。
当我们都需要这种特别的资源时,欺骗在其中就扮演了一个重要的角色。然后有两件我们不得不做的事情,一个是欺骗,另一个是怎么去欺骗。
你必须选择一个时机,使用这种冲突依赖理论,能帮助我们去影射这样一块区域,这里是非常强大的依赖结果。当然如果这个区域非常小的话,机器人就不太会欺骗。如果这个区域很大,就会有更多欺诈。所以你必须有这样调解的能力,让机器人或者相应的代理做到,可见冲突和依赖是必须存在的。所以神经系统上的识别要求是,用这套独特的方法影射游戏理论等,我们进行了“伙伴建模”。
这个理论再建模后,提醒我们在信任中的决定性作用。换句话说,我可以信任你,因为我知道你是可信任的。同样地,一旦我得到了你的信任。在特别的事例中我就可以欺骗你。这是非常有趣的延伸。
你不能欺骗没有传感器机器人, 因为它在特殊的事例中,无法说出欺骗有什么问题。我们发现其实会有更多的机会,让传感器之间也出现分歧。我同意是有欺骗成功的概率,你的合作伙伴模型做的越好, 欺骗成功的机率会越高。
我们在国际机器人杂志上,发表了这样的论文,我们展示了相互依存的空间位置,使我们了解如何以及何时,使用欺骗行为并且将其做好。
我们这个实验结果不能完全代表,机器人和欺骗的末端信息,且结果初步表明所描述的技术和算法。可用于机器人制造中的欺骗行为,还需要更多的心理学有效证据,来证实这一假设,这个其实相对来说比较谦虚了。
并不是所有人都同意这个实验结果,例如他们说佐治亚理工的这项研究,做了一个非常非常糟糕的决定,他们教会了机器人如何欺骗,例如当机器起来反抗人类以及机器人末世来临的时候,我们将会期望Ronald Arkin和Alan Wanger不曾提出这个想法。他们并不开心,我们告诉了机器人如何欺骗,好像世界就要末日了。
还有另外一篇说我们的文章,说有人教导机器人如何撒谎,说Ronald Arkin和Alan Wanger注定是两个声名狼藉的名字;这两来自佐治亚理工的人的论文,详尽地描述了他们的愚蠢,他们教导机器人如何捉迷藏的行为。哇,他们都不太开心!还有人说在疯狂研究者的帮助下,机器人能欺骗人类了,我很好奇“crazed boffins”中文是什么意思?
不过不是所有人都认为这是一个糟糕的主意,时代杂志给出了公平的观点,评价这是年度50大最佳发明之一,这只是一个简单的实验,却得到了这样的评价。
杂志说这是唯一一个摆脱束缚的新类科学家,他们这些探索机器人心理的理论,甚至能告诉我们一些关于我们自己的东西。
任何支持心理理论和分解理论的外部行为比例的计算代码,都可以帮助理解人类思维中正在发生的事情。最后有些人理解了,他们说这是一件非常棒的事情,也有人认为我们会被全部杀死,我们会继续研究欺骗,尽管有人认为这会让自我毁灭。
我们把机器人系统放入实验中获得大量的数据,试图展现人类控制机器人做法价值。有趣的是人们喜欢松鼠欺骗,但每个人都憎恨人类的欺骗行为,如果我们有基于松鼠的机器人,你会同意有一款可爱的松鼠机器人。
还有我一个学生的论文,叫“他人定位的机器人欺骗”。这种欺骗对你来说是好的,我举一个典型的例子,当我的妻子问她今晚看起来怎么样,我甚至不用思考,亲爱的,你今晚很漂亮,可能我不这么想。
在机器人系统中运用犯罪学模型,推动他们的社交活动。我们希望能把它扩大成三个元素:动机、方法、机会。方法和机会之前已经讲过了,包括怎么样做、什么时候做。
在这儿动机必须是敏感紧张的,这种情况下“我真的想要做这个”,她没有使它成为可能,通过遗漏确认欺骗,通过委托欺骗你可以欺骗人不去做任何事你也可以骗人去做一些事通过委托欺骗,过去的方法是使用微小的干扰、面部表情和身体语言。
我们之前和索尼、AIBO、三星就机器人的一些动态方面有合作,在十年、十五年之前有专利,我们对不同的事项采用了许多不同的方法,基本上它会产生错误的信号使我们在人当中研究它起作用的方式。
其实我们目的是希望推动机器学习、推动机器的表现。在老人当中通过机器人识别它的功能,机器人在一些情况下会欺骗他们,你做的很棒,其实你做得很糟糕。但它让他们保持前进,不断移动。
它们可能会有超乎寻常的表现,那时这不再是什么罕见的教育,每个人在某些点上都可能是天才,我们还用案例库推理。
最后我提的一点就是机器道德,我在机器人领域工作已超十年了,许多机器人开始随着战争产生,这是一个不同寻常的话题,问题在于机器人要怎么做我们应该允许机器人撒谎吗?甚至是对人类?
至于道德框架的使用,如果选用道德理论的框架,回答就是“不”,你永远都不应该撒谎;如果从功利和结果的角度,回答就“是”。
如果能够最大化人类的幸福,这可能就是一件应该做的好事,关于什么是应该做的正确的事,有许多复杂的人类学理论,那你应该能够接受不论是好还是坏的欺骗了。
最后有一个重大的问题我们应该让机器人撒谎吗?我们应该这么做吗?我们不能做吗?我表示怀疑
过去我们已经完成了欺骗,但是我们应该这么做吗?我们是否应该劝说机器人?这会导致机器人末日和其他一些情况,或者其他能告诉我们关于自身的一些事,事实上令我们变得更好,让社会变得更好!
机器人成为整个社会的一份子、社会生活的伙伴,这才是你的生活所需要的。而不是独自的时光,如果它们不是每时每刻都十足诚实,或许你可能直接输入、输出,就是将一个不诚实的参数输入、输出,根据你的需要调整不诚实的等级。
我们没有指导手册告诉我们怎么做,有全球委员会就一些机器人道德问题做了系统计算,以及它的下级的机器人道德伦理的职委委员会,可以了解下。
全部0条评论
快来发表一下你的评论吧 !