主要内容

从训练数据估计锚箱

锚箱是深学习对象探测器的重要参数如更快的R-CNN和YOLO v2意思。形状、规模和数量的锚箱影响探测器的效率和准确性。

有关更多信息,请参见锚箱对象检测

负荷训练数据

加载车辆的数据集,其中包含295张图片和相关的箱标签。

data =负载(“vehicleTrainingData.mat”);vehicleDataset = data.vehicleTrainingData;

添加当地车辆数据文件夹的完整路径。

dataDir = fullfile (toolboxdir (“愿景”),“visiondata”);vehicleDataset。imageFilename = fullfile (dataDir vehicleDataset.imageFilename);

显示数据集的总结。

总结(vehicleDataset)
变量:imageFilename: 295×1单元阵列特征向量的车辆:295×1细胞

可视化地面实况箱分布

可视化标签框来更好地理解对象大小的范围出现在数据集。

把所有地面实况盒为一个数组。

allBoxes = vertcat (vehicleDataset.vehicle {:});

图框区域长宽比和盒子。

aspectRatio = allBoxes (:, 3)。/ allBoxes (:, 4);面积= prod (allBoxes (:, 3:4), 2);图散射(区域,aspectRatio)包含(“箱区”)ylabel (”“纵横比(宽/高));标题(“盒子面积和纵横比”)

情节展示几组对象的大小和形状相似,然而,由于组织分散,手动选择锚盒子是很困难的。一个更好的方法来估计锚箱是使用聚类算法,可以把类似的盒子一起使用一个有意义的指标。

估计锚箱

估计从训练数据使用锚箱estimateAnchorBoxes函数实现的,它使用这个intersection-over-union(借据)距离度量。

距离度量基于借据是盒子的大小不变,与欧氏距离度量不同,产生更大的错误框大小增加[1]。此外,使用一个借据距离度量会导致类似的纵横比和大小的盒子被集中在一起,从而导致锚盒子估计数据。

创建一个boxLabelDatastore在车辆使用地面真理框数据集。如果培训对象探测器的预处理步骤涉及调整的图像,使用变换bboxresize调整的边界框boxLabelDatastore之前估计锚箱。

trainingData = boxLabelDatastore (vehicleDataset(:, 2:结束));

选择锚锚和估计的数量框使用estimateAnchorBoxes函数。

numAnchors =5;[anchorBoxes, meanIoU] = estimateAnchorBoxes (trainingData numAnchors);anchorBoxes
anchorBoxes =5×221日27 43 87 116 67 92 61 86 105

选择锚的数量是另一个需要仔细选择的培训hyperparameter使用实证分析。一个质量度量来判断估计锚箱意味着在每个集群借据的盒子。的estimateAnchorBoxes函数使用一个k聚类算法则借据距离度量来计算重叠使用,1 -bboxOverlapRatio(allBoxes boxInCluster)

meanIoU
meanIoU = 0.8411

借据的平均值大于0.5确保锚箱重叠和训练数据的盒子。增加锚的数量可以提高平均借据的措施。然而,使用更多的锚箱在一个对象探测器也可以增加计算成本并导致过度拟合,导致可怜的检测器的性能。

扫描的范围值和情节的意思是借据和锚箱的数量来衡量之间的权衡的锚和意味着借据。

maxNumAnchors = 15;meanIoU = 0 ([maxNumAnchors, 1]);anchorBoxes =细胞(maxNumAnchors, 1);k = 1: maxNumAnchors%估计锚和意味着借据。[anchorBoxes {k}, meanIoU (k)] = estimateAnchorBoxes (trainingData k);结束图的阴谋(1:maxNumAnchors meanIoU,“o”)ylabel (“意思是借据”)包含(“锚”)标题(“许多锚与意思借据”)

使用两个锚箱结果意味着借据值大于0.65,并使用超过7锚箱收益率只有边际改善意味着借据的价值。鉴于这些结果,下一步是训练和评估2和6之间的多个对象探测器使用的值。这一实证分析有助于确定锚箱的数量以满足应用程序的性能要求,如检测速度,或准确性。

引用

[1]Redmon,约瑟夫和阿里蒂。“YOLO9000:更好,更快,更强。“在2017年IEEE计算机视觉与模式识别会议(CVPR),6517 - 25所示。火奴鲁鲁,你好:IEEE 2017。https://doi.org/10.1109/CVPR.2017.690。