尽管这些进步还没有完全取代人类驾驶的位置,但这样做可以挽救生命。根据美国国家公路交通安全管理局的最新数据,2018年美国有近3.6万人死于交通事故,其中90%以上的事故是由人为失误造成的。行人死亡人数在过去十年上升了35%,每年超过6000人。车辆感知技术能够比人类更好地“看到”周围环境,并更快地做出反应,这将大大减少伤亡。
虽然人们一致认为感知技术将超越人类对驾驶环境的视觉和感知能力,但这也是共识的终点。汽车行业尚未就一项将引领我们进入无人驾驶汽车时代的技术达成共识。事实上,解决方案可能需要不止一个。以下是三家科技公司在推进汽车感知,引领全自动、自动驾驶汽车的未来。
“我们专注于长期和高分辨率,这是汽车雷达中最严重的问题。”
阿卜杜拉·扎伊迪(Abdullah Zaidi)是Metawave的工程总监
Beamsteering雷达
自20世纪初以来,雷达一直被用来帮助船只和飞机导航。它能够检测和识别目标,并在复杂条件下提供准确的速度信息,这使其成为自动驾驶的理想选择。
工程师在加州Metawave正在推动雷达的限制,以识别其他汽车,行人,静止的周围环境,道路危险,以及所有天气条件和夜间黑暗的危险。它的模拟雷达平台称为Spektra™,形成一个窄光束,使其瞄准它以在毫秒内检测和分类对象。Metawave工程总监Abdullah Zaidi表示,他们的技术是汽车领域中最高分辨率的模拟雷达。它可以看到行人250米,距离汽车330米的车程。
它还可以准确地测量两个物体之间的小距离,称为角度分辨率,这使得雷达能够将一个对象与另一个物体区分开来。“这不是当前雷达可以做的事情,”Zaidi说。
SPEKTRA扫描环境的方式也有所不同。传统的数字雷达系统可以一次性捕获所有信息,就像一个强大的闪光灯照亮一个场景,而超波雷达的工作原理更像一束激光束,可以一次看到空间的特定部分。光束迅速扫过环境,检测和分类所有物体在车辆视野内的毫秒。超波的方法增加了距离和精度,同时减少干扰和杂波的概率,所有的计算开销很小。“我们专注于远程和高分辨率,这是目前汽车雷达最难解决的问题,”Zaidi说。
超波工程师使用MATLAB®测试SPEKTRA雷达的距离和分辨率,并创建处理雷达输出的底层算法。该技术为汽车提供了自动驾驶功能,如左转辅助、盲点监测、自动紧急制动、自适应巡航控制和车道辅助。
智能激光雷达
首批自动驾驶汽车是由美国政府的国防高级研究计划局(DARPA)赞助的一项竞赛的一部分,其中一些使用了基于激光的系统来“看到”环境。光探测和测距(激光雷达)传感系统每秒发射数千个光脉冲,这些光脉冲被周围的物体反射并反射回车辆。在那里,计算机使用每个数据点(称为体素)来重建环境的三维图像,并最终控制汽车的运动方式。
然而,激光雷达非常昂贵,每辆车的成本超过7万美元。单独使用它也有其局限性。恶劣的天气会干扰信号,所以它通常与其他传感技术相结合,如照相机、雷达或超声波。但该公司联合创始人兼高级副总裁巴里•本肯(Barry Behnken)说,这会产生大量冗余和无关的信息,中央计算机必须对这些信息进行分析AEye,位于加利福尼亚都柏林。
“我们的最终目标是开发出一种和人类一样好甚至更好的感知系统。”
Barry Behnken, AEye联合创始人兼高级副总裁
那里的工程师拥有先进的激光雷达,将其与高分辨率摄像机融合。他们的系统名为iDAR,用于智能探测和测距,它创造了一种新型的数据点,将数字相机的高分辨率像素与激光雷达的3D体素相结合。他们称这些点为动态像素。由于激光脉冲和摄像机通过同一孔径采集光学信息,使得数据流集成并可同时分析,节省了时间和处理功率。
与传统的LIDAR系统不同,它扫描整个环境中平均扫描场景,IDAR调整其光脉冲模式,以使场景的关键区域更加关注。通过Aeye的计算机视觉算法确定脉冲的位置。他们首先分析相机数据以搜索并检测对象的边缘,然后立即与更高分辨率的LIDAR扫描进行分类,跟踪和预测这些对象的运动。工程师使用MATLAB确保算法正在使用最佳,最有效的光脉冲模式扫描场景。
本肯说:“我们正努力在传感器侧进行更多的感知,以减少车辆中央计算侧的负载。”他说,与传统的解决方案相比,更快地捕获更好的信息可以带来更准确的感知,同时使用更少的激光功率。金宝搏官方网站他说:“我们的最终目标是开发出一种和人类一样好甚至更好的感知系统。”
热浪
激光雷达、雷达和视频摄像技术的进步将有助于将自动驾驶技术带入未来。但没有传感器能单独完成这项工作。该公司副总裁兼首席技术官Gene Petilli说:“他们各有长处,也各有弱点。猫头鹰自治成像该公司总部位于纽约费尔波特。
Petilli说,传统的激光雷达非常准确,但是雪、雨和雾降低了它区分活物和无生命物体的能力。另一方面,传统的雷达可以看透积雪,在远距离很出色,可以判断物体的相对速度,但它不能单独分辨这些物体是什么。摄像头可以识别交通信号灯和街道标志,但眩光会影响图像质量,在晚上,他们只能看到车头灯照亮的东西。
Petilli说:“关键是要挑选一组没有相同缺陷的传感器。”
OWL AI的团队填补了3D热成像的差距,这意味着人员和动物发给的热签名,大大简化了对象分类。该公司的传感器称为Thermal Ranging™是一种被动系统 - 意味着它不必发出能量或光线并等到它反弹 - 这可以拿起活物的红外线。它看到了物体,无论是在白天或夜晚都在移动或静止,在任何天气条件下,可达400米,可以计算目标3D范围和速度高达100米的速度。
该设备由一个主镜头(类似于普通相机的主镜头)和一组位于主镜头和探测器之间的非常小的镜头组成。阵列将场景分解成马赛克图像,每一个图像从不同的角度观察感兴趣的对象。一种算法通过测量图像之间的细微差别来计算物体的距离。
Petilli说,该公司正在使用MATLAB来完善这个系统。因为他们试图测量微透镜阵列中元素之间非常微小的差异,透镜中的任何扭曲都会在距离计算中产生误差。因此,他们在MATLAB中建立了整个系统的模型,以完善校正透镜畸变的算法。他们还进行了驾驶模拟,以训练生成3D热图像的深度神经网络人工智能算法。深度学习将用于评估神经网络算法,以将图像拼接转化为3D地图。
Petilli说:“除非自动驾驶汽车比人类驾驶员更安全,否则不会被公众所接受。”
加强安全
车辆感知技术是提供安全自动驾驶体验的关键。为了实现全自动、自动驾驶汽车的承诺,科技公司正在使用人工智能和计算机视觉来帮助汽车看到和感知环境。尽管完全自动驾驶汽车还不是标准,但这些公司在改善新车安全系统的同时,正在拉近我们的距离。