主要内容

在Simulink中利用合成雷达和视觉数据进行传感器融合金宝app

这个例子展示了如何在Simulink®中使用自动驾驶工具箱™实现跟踪和传感器融合的合成数据仿真。金宝app它紧随着基于合成雷达和视觉数据的传感器融合MATLAB®的例子。

介绍

模拟合成雷达和视觉检测提供了制造罕见和潜在危险事件的能力,并使用它们测试车辆算法。这个例子涵盖了Simulink中的整个合成数据工作流。金宝app

模型的设置和概述

在运行此示例之前,驾驶场景设计师应用程序用于创建定义的相同场景基于合成雷达和视觉数据的传感器融合.然后将此场景中的道路和角色保存到场景文件中OpenLoop.mat

场景的读者块从保存的文件中读取actor姿态数据。该块将演员的姿势从场景的世界坐标转换为自我载体坐标。演员的姿势在由街区生成的公共汽车上流动。

动作位姿由传感器仿真子系统使用,生成合成雷达和视觉检测。仿真检测连接在多目标跟踪器块的输入端,其输出是已确认的轨迹列表。最后,鸟瞰镜将演员、视觉和雷达探测、确认的轨迹和道路边界可视化。下面的部分描述了这个模型的主要部分。

模拟传感器检测

在这个例子中,您模拟一个ego车辆,它有6个雷达传感器和2个视觉传感器,覆盖360度视野。传感器存在一定的重叠和覆盖间隙。ego车辆在前部和后部都配备了远程雷达传感器和视觉传感器。车辆的每一侧都有两个近程雷达传感器,每个覆盖90度。两侧各有一个传感器,覆盖车辆的中部到尾部。两侧的另一个传感器从车辆的中间向前覆盖。

当您打开传感器仿真子系统时,您可以看到两个视觉检测发电机块,配置为从自我车辆的前面和后面产生检测。视觉检测发生器的输出连接到检测连接块。接下来,子系统包含6个雷达检测发电机块,配置如前一段所述。雷达探测发生器的输出被连接起来,然后使用检测聚类块进行聚类。

跟踪与传感器融合

来自视觉和雷达传感器的检测必须首先连接起来,形成一个单一的输入多目标跟踪块。Concatenation使用一个额外的Detection Concatenation块完成。

多目标跟踪器模块负责融合来自所有检测的数据,并跟踪自我车辆周围的目标。多目标跟踪器的参数配置与相应的MATLAB例子中使用的相同,基于合成雷达和视觉数据的传感器融合.多目标跟踪器块的输出是一个确认轨道的列表。

创建和传播总线

本例中各个块的输入和输出都是金宝app仿真软件。公共汽车(金宝app模型)对象。为了简化模型的编译和总线的创建,所有的Vision Detection Generator、Radar Detection Generator、Multi-Object Tracker和Detection Concatenation块都有一个属性来定义输出总线名称的来源。当设置为“汽车”,将自动创建总线,并将它们的名称传播到使用此总线作为输入的块。当设置为“属性”,您可以定义输出总线的名称。下面的图像显示了检测总线,单个检测总线,轨道总线,和单个轨道总线。

显示

鸟瞰的范围是一个可以从Simulink工具条打开的模型级可视化工具。金宝app在模拟选项卡,在审查结果,点击鸟瞰的范围.打开作用域后,单击找到信号来设置信号。然后运行模拟以显示角色、视觉和雷达探测、轨迹和道路边界。下面的图片显示了这个例子的鸟瞰图。

另请参阅

应用程序

对象

功能

相关的话题