展望未来
走向全自主,自动驾驶汽车的路径
2018年,美国有近3.6万人死于交通事故,其中超过90%的事故是人为失误造成的。
尽管这些进展还没有完全取代了驾驶座人,这样做可以挽救生命。据美国国家公路交通安全管理局的最新数据,近3.6万人在美国死于交通事故在2018年,与人为错误造成的这些事故的90%以上。行人死亡人数35%,在过去十年中上涨,达到了6000年收入。车辆感知技术,能够“看到”它的周围比人更好,反应更迅速地能显著减少伤亡。
虽然人们一致认为,感知技术将超越人类看到和感知驾驶环境的能力,但这只是共识的一部分。汽车行业尚未就一项将引领我们进入无人驾驶汽车时代的技术达成共识。事实上,解决方案可能需要不止一个。以下是三家致力于提升汽车感知能力的科技公司,它们将引领全自动、自动驾驶汽车的未来。
“我们专注于远程和高分辨率,这是汽车雷达最困难的问题。”
阿卜杜拉·扎伊迪,Metawave的工程总监
雷达波束方向控制
从20世纪早期开始,雷达就被用来帮助船只和飞机导航。它能够检测和识别目标,并在复杂条件下提供准确的速度信息,是自动驾驶的理想选择。
工程师在加州Metawave正在挑战雷达的极限,以识别其他汽车、行人、静止的环境、道路危险,以及在所有天气条件下和黑夜中的更多情况。它的模拟雷达平台,称为SPEKTRA™,形成一个狭窄的波束,并引导它在毫秒内检测和分类物体。Metawave的工程总监阿卜杜拉·扎伊迪(Abdullah Zaidi)表示,他们的技术是汽车领域分辨率最高的模拟雷达。它可以看到250米外的行人,并识别330米外的车辆。
它还可以精确测量两个物体之间的小距离,这被称为角分辨率,这使雷达能够区分一个物体和另一个物体。扎伊迪说:“这不是目前雷达所能做到的。”
SPEKTRA扫描环境的方式也不同。传统的数字雷达系统可以一次性捕获所有信息,类似于一个强大的闪光灯照亮一个场景,Metawave的雷达更像一束激光,可以一次看到一个特定的空间区域。光束迅速扫过环境,在几毫秒内检测和分类车辆视野内的所有物体。Metawave的方法增加了距离和精度,同时减少了干扰和杂波的概率,所有这些都用很小的计算开销。“我们专注于远程和高分辨率,这是当今汽车雷达最难解决的问题,”扎伊迪说。
Metawave工程师使用MATLAB®测试SPEKTRA雷达的距离和分辨率,并创建处理雷达输出的底层算法。该技术使汽车具备了左转辅助、盲点监控、自动紧急制动、自适应巡航控制、车道辅助等自动驾驶功能。
智能激光雷达
首批自动驾驶汽车是由美国国防部高级研究计划局(DARPA)赞助的一项竞赛的一部分,其中一些汽车使用了基于激光的系统来“观察”环境。光探测和测距(激光雷达)传感系统每秒发射数千个光脉冲,这些光脉冲被周围的物体反射回车辆。在那里,计算机使用每个被称为体素的数据点来重建环境的三维图像,并最终控制汽车的移动。
激光雷达是昂贵的,虽然成本每车超过$ 70,000。而单独使用也有其局限性。恶劣的天气干扰了信号,所以它经常与其他传感技术,如摄像机,雷达,超声波或合并。巴里Behnken设计,创始人和高级副总裁说,但可以产生冗余和不相关信息,由一个中央计算机必须解析的压倒性量AEye总部位于加州都柏林。
“我们的最终目标是建立一个感知系统这是一样好,或者比人类的更好。”
Barry Behnken, AEye联合创始人兼高级副总裁
工程师也有通过高分辨率摄像机它融合先进的激光雷达的能力。他们的系统,称为伊达尔,智能探测和测距,创建一个新的类型,从数码相机融合了高分辨率像素与3D激光雷达的体素的数据点。他们称这些点动态Vixels。因为激光脉冲和摄像机收集通过相同孔径的光学信息中,数据流被集成,并且可以在同一时间,从而节省时间和处理能力进行分析。
与传统的激光雷达系统不同的是,激光雷达系统在整个环境中对场景进行同等扫描,iDAR调整其光脉冲模式,以给予场景的关键区域更多的关注。脉冲的方向由AEye的计算机视觉算法决定。他们首先分析相机数据,搜索和检测物体的边缘,然后立即用高分辨率激光雷达扫描定位,分类,跟踪,并预测这些物体的运动。工程师使用MATLAB来确保算法尽可能使用最佳、最有效的光脉冲模式来扫描场景。
Behnken说:“我们正在尝试在传感器一侧进行更多的感知,以减少车辆中央计算一侧的负载。”他说,与传统的解决方案相比,在使用更少的激光功率的同时,更快地获取更好的信息将导致更准确的感知。金宝搏官方网站他说:“我们的最终目标是开发一种与人类一样好甚至更好的感知系统。”
热浪
在激光雷达,雷达和摄像机技术的进步将有助于推动自主驾驶技术的未来。但是,没有传感器可以单独完成这项工作。“他们都有自己的长处和他们都有自己的弱点,”基因Petilli,副总裁兼首席技术官说猫头鹰自治成像该公司总部位于纽约费尔波特(Fairport)。
传统的激光雷达是非常准确的,但雪,雨,雾降低其分辨无生命的物体动画能力Petilli说。传统的雷达,而另一方面,可以看到通过雪,是优秀的长距离,并且可以判断物体的相对速度,但它不能单独区分什么这些对象。相机可以进行分类,以及读取交通信号灯和路牌,但眩光干扰的质量,并在晚上,他们只能看到车灯照亮。
从原型猫头鹰AI热成像。原型系统的完整视频可用在这里。视频来源:猫头鹰自治IMAGIN
“在无人驾驶汽车比人类司机更安全之前,它们不会被公众接受。”
Gene Petilli, Owl AI的副总裁兼首席技术官
“关键是要挑一套不具有相同的弱点的传感器,” Petilli说。
Owl AI团队用3D热成像技术填补了这一空白,该技术可以感知人和动物发出的热信号,极大地简化了物体分类。该公司的传感器被称为热测距™,是一种被动系统,这意味着它不需要发射能量或光,直到它反射回来,它可以接收活物体的红外热。它能看到400米外的物体,无论它是移动的还是静止的,无论白天还是黑夜,无论在任何天气条件下,并能计算出100米外物体的3D范围和速度。
该装置由一个主镜头组成,与普通相机的主镜头类似,再加上一排位于主镜头和探测器之间的非常小的镜头。该阵列将场景分解成一系列图像,每个图像从不同的角度观察感兴趣的物体。一种算法通过测量图像之间的细微差别来计算物体的距离。
Petilli说,该公司使用MATLAB完善制度。因为他们试图以测量微透镜阵列元件之间的非常小的差异,在所述透镜的任何失真可以创建在范围计算误差。于是,他们在MATLAB对整个系统进行建模,以完美的镜头失真校正算法。他们还跑驾驶模拟训练深层神经网络人工智能算法,创建3D热图像。深度学习将被用来评估神经网络算法,马赛克图像转换成3D地图。
“自动驾驶汽车将不会被公开,直到它们比人类驾驶更安全地接受,” Petilli说。
加强安全
车辆感知技术的关键是提供一个安全的自动驾驶体验。为了提供对全自主,自动驾驶汽车,高科技公司承诺在使用人工智能和计算机视觉,以帮助车辆看到并感觉到他们的环境。虽然完全自主车不规范的是,这些公司使我们更接近今天同时提高新车的安全系统。