主要内容

Simulink中使用合成雷达和视觉数据的传感器融合金宝app

此示例显示如何实现用于在Simulink®中跟踪和传感器融合的合成数据仿真,通过自动化驱动工具箱™。金宝app它紧密跟随使用合成雷达和视觉数据的传感器融合MATLAB®的例子。

介绍

模拟合成雷达和视觉检测提供了创造稀有和潜在危险事件的能力,并与它们测试车辆算法。此示例涵盖了Simulink中的整个合成数据工作流程。金宝app

设置和概述模型

在运行此示例之前,驾驶场景设计师应用程序用于创建定义的相同场景使用合成雷达和视觉数据的传感器融合.然后将此场景中的道路和角色保存到场景文件中OpenLoop.Mat.

情景读者块从保存的文件中读取actor姿态数据。该块将演员的姿势从场景的世界坐标转换为自我载体坐标。演员的姿势在由街区生成的公共汽车上流动。

演员姿势由传感器仿真子系统使用,从而产生合成雷达和视觉检测。模拟检测在输入到多对象跟踪器块的输入时连接,其输出是确认轨道的列表。最后,鸟瞰图显示了演员,视觉和雷达检测,确认的轨道和道路边界。以下部分描述了该模型的主块。

模拟传感器检测

在此示例中,您模拟了一个具有6个雷达传感器和2个视觉传感器的自我车辆,覆盖360度视场。传感器具有一些重叠和一些覆盖范围。自助式车辆配备有远程雷达传感器和车辆前后的远程雷达传感器和视觉传感器。车辆的每一侧都有两个短程雷达传感器,每个覆盖90度。每个侧面的一个传感器从车辆的中间覆盖到后面。每个侧面的另一个传感器从车辆的中间覆盖。

当您打开传感器仿真子系统时,您可以看到两个视觉检测发生器块,被配置为从自由车辆的前后产生检测。来自视觉检测发生器的输出连接到a检测连接块。接下来,子系统包含6个雷达检测发生器块,如前一段所述配置。雷达检测发生器的输出被连接,然后使用检测聚类块群集。

跟踪和传感器融合

来自视觉和雷达传感器的检测必须首先连接起来,形成一个单一的输入多对象跟踪器块。连接使用额外的Detection concatenation块完成。

多目标跟踪器块负责从所有检测中融合数据并跟踪自我车辆周围的物体。多目标跟踪器配置了相应MATLAB示例中使用的相同参数,使用合成雷达和视觉数据的传感器融合.来自多目标跟踪器块的输出是确认轨道的列表。

创建和传播总线

本例中各个块的输入和输出都是金宝appsimulink.bus.(金宝appSimulink)对象。为了简化模型的编译和总线的创建,所有的Vision Detection Generator、Radar Detection Generator、Multi-Object Tracker和Detection Concatenation块都有一个属性来定义输出总线名称的来源。当设置为'汽车',将自动创建总线,并将它们的名称传播到使用此总线作为输入的块。当设置为'财产',您可以定义输出总线的名称。下面的图像显示了检测总线,单个检测总线,轨道总线,和单个轨道总线。

展示

鸟瞰是一个模型级可视化工具,可以从Simulink ToolStrip打开。金宝app在这方面模拟标签,下面审查结果, 点击鸟瞰.打开范围后,单击找到信号设置信号。然后运行模拟以显示演员,视觉和雷达检测,轨道和道路边界。以下图像显示了此示例的鸟瞰图。

也可以看看

应用

对象

职能

相关的话题