战斗机器人或将走进现实世界

电子说

1.2w人已加入

描述

人类用思想控制机器催生了许多像“环太平洋”类似的大片,影片中如摩天大楼高的战斗机器人非常酷炫,下一步,这种战斗机器人或将走进现实世界。

据美国政府技术网站 Nextgov 7 月 17 日报道,美国国防部的研究部门正在实施一个项目,将人类操作员的大脑与他们控制的系统连接起来,反之亦然。换句话说,这项技术可以让人们远程控制、感觉机器、并与机器远程互动,就好像它是自己身体的一部分。

美国国防高级研究计划局(简称 DARPA )正在挑选团队,计划用四年时间开发一种“神经界面(neural interface ) ”系统,既能让战斗员利用脑电波将自己与武器系统相连接,又能让这些系统直接将信息传回用户大脑。

DARPA 表示,“下一代非侵入性神经技术” ( Next-Generation Nonsurgical Neurotechnology,简称 N3 ) 项目,旨在将计算机的速度和处理能力与人类适应复杂情况的能力结合起来。

▌假肢革新计划 ( Revolutionizing Prosthetics )

在 20 世纪 60 年代 DARPA 开始研究人与机器之间的相互作用,虽然合并这两者的技术可能听起来很牵强,但该组织已经通过 “假肢革新 ( Revolutionizing Prosthetics )” 计划证明它是可能的。

起初,军事战争给年轻士兵带来不可磨灭的伤害,有些幸免于难的士兵只有用过截肢才能活下来,但这给他们之后数十年的生活带来极大的不便,假肢革新计划旨在通过恢复近乎自然的手臂来解决这些挑战。

由此产生的技术可以改善战士的康复,恢复截肢或瘫痪的人的功能和独立性,并未受伤的战士提供最终恢复工作的希望,此前,由 DEKA 研发公司为 DARPA 开发 LUKE Arm 系统,通过简单、直观的控制系统实现灵巧的手臂和手部运动。

近期,由约翰霍普金斯大学应用物理实验室为 DARPA 开发的模块化假肢是一种更复杂的手臂系统,主要设计为一种研究工具,用于测试假体的直接神经控制。

除了对残疾退伍军人有用之外,假肢革新程序所展示的灵巧能力已经被应用到小型机器人系统中,军方用来操纵未爆炸的弹药。

▌下一代非侵入性神经技术 ( Next-Generation Nonsurgical Neurotechnology )

现在,DARPA 希望不需要外科植入体内,为健康男女打造类似的设备。

N3 项目计划分为两种:

一种是非侵入性的神经界面,完全位于身体外面;

另一种是微小的侵入性神经界面,可能需要用户摄取不同的化学物质,来帮助外部传感器读取他们的大脑活动。

在这两种情况下,技术必须是“双向的”,意味着它们可以读取大脑活动,同时能将新的信息反馈给用户。

DARPA 生物技术办公室项目经理艾·厄蒙迪(Al Emondi)指出:

“从人类第一次将石头打磨成刀刃或矛头开始,人类就一直在创造工具,帮助他们与周围的世界互动。随着时间的推移,我们使用的工具变得越来越复杂……但这些仍然需要某种形式的物理控制界面——无论是接触、动作或声音。神经界面将带来一种更丰富、更强大、更自然的体验,在这种体验中,我们的大脑有效地成为了工具的一部分。”

虽然这些能力可能会引发有关政府研发读心术和控制思维的阴谋论,但 Al Emondi 表示不会出现这种情况,科学家们才刚刚开始弄清楚大脑的 1000亿个神经元是如何相互作用的,因此控制这些几乎是不可能的。

Al Emondi 还认为,我们最好应将 N3 技术视为一种没有鼠标、键盘或触摸屏的情况下,就能使用计算机或智能手机的手段。

Al Emondi 还推测,未来这种神经界面,可以用来帮助飞行员用他们的意念来控制一队无人机,或者让战斗员大脑的运动信号来控制远程部署的机器人。

▌马斯克等 2400 名专家联名抵制 AI 武器

在美国当地时间 7 月 18 日在瑞典斯德哥尔摩市举办的 IJCAI 会议上,超过 2400 名个人专家与 160 家组织共同签署了一项承诺协议,未来既不参与也不支持开发、制造、交易或使用致命的自主武器。

签名成员包括埃隆-马斯克(Elon Musk)、DeepMind 三位联合创始人 肖恩-莱格 (Shane Legg),穆斯塔法-萨勒曼 (Mustafa Suleyman )和德米斯-哈萨比斯 (Demis Hassabis),以及其他人工智能研究专家。

以下为承诺原文:

人工智能(AI)有望在军事系统中发挥越来越大的作用。公民、政府决策者和领导者有必要区分人工智能分别具备哪些可接受和不可接受的用途。

从这个角度来看,我们签名同意,永远不应该把结束人类生命的决定委托给机器。这种立场涉及道德伦理,那就是我们不应该让机器决定人的生死,而其他人或者没有人将受到惩罚。

还有一个强有力的实用论点:致命的自主武器,在没有人为干预的情况下选择和接触目标,将对每个国家和个人的安全造成危险。成千上万的人工智能研究人员一致认为,致命的自主武器降低了索取人类生命风险,消除了索取人类生命的因果和难度,可能成为暴力和压迫的有力工具,尤其是与监视和数据系统相关的武器。

此外,致命的自主武器具有与核武器、化学武器和生物武器截然不同的特点,国际社会缺乏管理的技术工具和全球治理体系,单一集团的单方面行动很容易引发军备竞赛。谴责和防止这种军备竞赛应该是国家和全球安全的高度首要事项。

我们,署名人,呼吁各国政府和政府领导人创造一个具有强有力的国际法规反对致命自主武器的发展。这些法规目前还有些欠缺,但我们要保持更高的标准:我们既不参与也不支持研发、制造、贸易或使用致命自主武器。我们要求科技公司和组织以及领导者、决策制定者和其他个人加入我们的这一承诺。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分