汽车电子
自动驾驶汽车何时才能真正到来?像人类一样驾驶的全自动驾驶汽车,必须具有人类的认知能力:首先能“看”到,然后能“想”到,最后才能“做”到。
用什么来“看”,正是目前汽车行业中的大家意见分裂的地方。传统观点认为,常规的摄像头、雷达和超声波传感器以外,激光雷达也是必不可少的。但近两年来逐渐出现了新的反对声音,他们认为自动驾驶并不依赖后者,而是主要靠“大脑”。
实际上,激光雷达可以说是车载雷达系统中的最优解。目前几乎所有自动驾驶技术公司和汽车厂商都在研究基于该设备的自动驾驶科技,甚至还能在国内道路看到它们:比如在车顶上长着巨大“肿块”、车内盘踞着各种电线和电脑屏幕的林肯轿车。激光雷达跟普通雷达的工作模式相似:发射器发射出激光,光束遇到物体后会反射至激光接收器,雷达模块根据发送和接收信号的时间间隔,计算出两者之间的距离。
使用激光雷达可免去流程复杂且不可靠的摄像头图像分析程序,也可弥补一般毫米波雷达的致命缺陷——对金属物体过于敏感,是目前来说三者中最为可靠且具有发展潜力的技术路线。此外,单线激光雷达只能检测二维空间上的距离(单一平面测距)。因此多线雷达,比如目前放置在车顶的顶级64线雷达,可以实现平面数据的空间立体堆叠,最大化检测车辆周围障碍物的距离,甚至连马路牙子都不放过。
然而激光雷达传感器的成本非常高,除了市场需求少以外,它本身的光学元件造价不菲,研发和调试能力也只被少数公司掌握。据悉,两年前一个64线激光雷达售价高达6万英镑,目前单线至四线的低端激光雷达产品最低也需要4000英镑左右。相比之下,目前消费者在大部分品牌车型上,选装一整套使用“微波雷达+摄像头”的成品自动驾驶辅助系统,所花的钱也仅仅是激光雷达成本的四分之一,甚至更少。
更重要的是,现在双目摄像头的成本仅为几英磅。它们通常布置在前挡风玻璃的顶端两侧,用略俯视的角度拍摄前方路况。而使用低成本硬件的背后博弈,正是一场对人工智能算法发展速度的赌博。特斯拉认为,人类和其他动物进化出了眼睛来看东西,却没有进化出激光雷达,它的重点在于我们的大脑具有学习和自主判断能力。
其中,人类神经系统的基础“零件”是神经元,我们的身体中有数百万个这样的细胞,在中枢神经系统中形成神经网络。而计算机工程师们正是模仿人类的大脑运算,构建“人工神经网络”(ANN),提升电脑的运算能力。对于汽车来说,无论是雷达还是摄像头图像,它们绘制的都是一幅幅由像素和数字矩阵构成的点阵图。如何把这样的数字矩阵信息,变成有效的距离与方位图,才是自动驾驶系统应该大力发展的方向。
既然解决方法重新回归到了计算上,那么问题的答案就已经很明显了:如何计算,与如何实现快速计算?先说如何计算:目前人工神经网络ANN需要数千个图像来学习识别目标身份,而且系统需要在所有情况下识别出图像中的目标物。这就相当于一场特殊的“培训”,让电脑牢记每个角度的汽车、行人、自行车、道路标识和信号灯都长什么样。
再说算力要求:特斯拉研究人员表示,自动驾驶汽车需要一台至少每秒执行50万亿次操作(50 TOPS)的神经网络计算机。相比之下,人类大脑的运算能力约为10 TOPS。至于为什么人脑算力没那么高却依然能驾驶汽车呢?因为人类在成长过程中积累的预判断和逻辑能力远超电脑,且人类并不会时刻关注所有的路面信息。
特斯拉表示,目前世界上尚未有专门针对神经网络和自动驾驶而开发的电脑芯片,因此过去三年一直在设计自己的芯片,方便应用在车载计算机上。此外,他们也一直在市售车辆上不断收集路面信息,目前已经收集了数十万个图像,未来将服务于自己的神经元网络。无独有偶,随着自动驾驶在汽车领域的关注度逐渐升高,博世和NVIDIA也联手加入战局。他们目前正在为自动驾驶汽车开发类似的“大脑”,并预计于2020年正式发布。
此外,马一龙预计在今年内,为特斯拉汽车推送并升级成一套完整的自动驾驶软件,并于2020年在美国的特斯拉自动驾驶出租车上首次应用该功能。我们常说的“自动驾驶”实际上指的是一个牵涉到法律法规、道路规划、网络通信、人身安全与自由等多重方面的综合出行解决方案,与“公共交通”、“自驾车”等出行选择并列。单就车辆的自动驾驶技术本身,则是综合了智能化与自动化的一项先进功能。
目前无论是基础的工业自动化,还是自动驾驶技术,AI人工智能的发展依然是一大瓶颈。它将引领机器人或车辆,拥有命令执行的自主性,并与周围不断变化的环境交互,而不是简单地重复执行相同的进程。所以我们看上去只是简单地让电脑去“驾驶汽车”,实际上这项工作及其复杂。或许到了最后,电脑会找到属于它们的“驾驶乐趣”,又或者我们总有一天会把方向盘抢回来。
全部0条评论
快来发表一下你的评论吧 !