主要内容

YOLO v2意思深層学習を使用したオブジェクトの検出

この例では、You Only Look Once (YOLO) v2 オブジェクト検出器に学習させる方法を説明します。

深層学習は、ロバストなオブジェクト検出器に学習させるために使用できる強力な機械学習手法です。オブジェクト検出の方法は、Faster R-CNN や You Only Look Once (YOLO) v2 など複数あります。この例では、関数trainYOLOv2ObjectDetectorを使用して,YOLO v2意思車両検出器に学習させます。詳細については、YOLO v2 入門を参照してください。

事前学習済みの検出器のダウンロード

学習の完了を待たなくて済むように、事前学習済みの検出器をダウンロードします。検出器に学習させる場合は、変数doTrainingを true に設定します。

doTraining = false;if~doTraining && ~exist('yolov2ResNet50VehicleExample_19b.mat','file') disp('Downloading pretrained detector (98 MB)...'); pretrainedURL ='//www.tatmou.com/supportfiles/vision/data/yolov2ResNet50VehicleExample_19b.mat';websave ('yolov2ResNet50VehicleExample_19b.mat',pretrainedURL);end

データセットの読み込み

この例では、295 枚のイメージを含んだ小さな車両データセットを使用します。これらのイメージの多くは、Caltech の Cars 1999 データ セットおよび Cars 2001 データ セットからのものです (Caltech Computational Vision のWeb サイトで入手可能)。Pietro Perona 氏によって作成されたもので、許可を得て使用しています。各イメージには、1 または 2 個のラベル付けされた車両インスタンスが含まれています。小さなデータセットは YOLO v2 の学習手順を調べるうえで役立ちますが、実際にロバストな検出器に学習させるにはラベル付けされたイメージがより多く必要になります。車両のイメージを解凍し、車両のグラウンド トゥルース データを読み込みます。

unzipvehicleDatasetImages.zipdata = load('vehicleDatasetGroundTruth.mat'); vehicleDataset = data.vehicleDataset;

車両データは 2 列の table に保存されています。1 列目にはイメージ ファイルのパスが含まれ、2 列目には車両の境界ボックスが含まれています。

% Display first few rows of the data set.vehicleDataset(1:4,:)
ans=4×2 tableimageFilename vehicle _________________________________ ____________ {'vehicleImages/image_00001.jpg'} {1×4 double} {'vehicleImages/image_00002.jpg'} {1×4 double} {'vehicleImages/image_00003.jpg'} {1×4 double} {'vehicleImages/image_00004.jpg'} {1×4 double}
% Add the fullpath to the local vehicle data folder.vehicleDataset.imageFilename = fullfile(pwd,vehicleDataset.imageFilename);

データセットは学習、検証、テスト用のセットに分割します。データの 60% を学習用に、10% を検証用に、残りを学習済みの検出器のテスト用に選択します。

rng(0); shuffledIndices = randperm(height(vehicleDataset)); idx = floor(0.6 * length(shuffledIndices) ); trainingIdx = 1:idx; trainingDataTbl = vehicleDataset(shuffledIndices(trainingIdx),:); validationIdx = idx+1 : idx + 1 + floor(0.1 * length(shuffledIndices) ); validationDataTbl = vehicleDataset(shuffledIndices(validationIdx),:); testIdx = validationIdx(end)+1 : length(shuffledIndices); testDataTbl = vehicleDataset(shuffledIndices(testIdx),:);

imageDatastoreおよびboxLabelDatastoreを使用して、学習および評価中にイメージとラベル データを読み込むデータストアを作成します。

imdsTrain = imageDatastore(trainingDataTbl{:,'imageFilename'}); bldsTrain = boxLabelDatastore(trainingDataTbl(:,'vehicle')); imdsValidation = imageDatastore(validationDataTbl{:,'imageFilename'}); bldsValidation = boxLabelDatastore(validationDataTbl(:,'vehicle')); imdsTest = imageDatastore(testDataTbl{:,'imageFilename'}); bldsTest = boxLabelDatastore(testDataTbl(:,'vehicle'));

イメージ データストアとボックス ラベル データストアを組み合わせます。

trainingData = combine(imdsTrain,bldsTrain); validationData = combine(imdsValidation,bldsValidation); testData = combine(imdsTest,bldsTest);

学習イメージとボックス ラベルのうちの 1 つを表示します。

data = read(trainingData); I = data{1}; bbox = data{2}; annotatedImage = insertShape(I,'Rectangle',bbox); annotatedImage = imresize(annotatedImage,2); figure imshow(annotatedImage)

YOLO v2 オブジェクト検出ネットワークの作成

YOLO v2 オブジェクトの検出ネットワークは 2 つのサブネットワークで構成されます。特徴抽出ネットワークに検出ネットワークが続きます。通常、特徴抽出ネットワークは事前学習済みの CNN です (詳細については事前学習済みの深層ニューラルネットワーク(Deep Learning Toolbox)を参照)。この例では特徴抽出に ResNet-50 を使用します。用途の要件によって、MobileNet v2 や ResNet-18 など、その他の事前学習済みのネットワークも使用できます。検出サブネットワークは特徴抽出ネットワークと比べて小さい CNN であり、少数の畳み込み層と YOLO v2 に固有の層で構成されます。

関数yolov2Layersを使用して、事前学習済みの ResNet-50 特徴抽出ネットワークが自動的に指定された YOLO v2 オブジェクト検出ネットワークを作成します。yolov2Layersでは YOLO v2 ネットワークをパラメーター化する以下の複数の入力を指定しなければなりません。

  • ネットワーク入力サイズ

  • アンカー ボックス

  • 特徴抽出ネットワーク

最初に、ネットワーク入力サイズとクラス数を指定します。ネットワーク入力サイズを選択する際には、ネットワーク自体に必要な最小サイズ、学習イメージのサイズ、選択したサイズでのデータの処理によって発生する計算コストを考慮します。可能な場合、学習イメージのサイズに近く、ネットワークに必要な入力サイズより大きいネットワーク入力サイズを選択します。例の実行にかかる計算コストを削減するには、ネットワーク入力サイズをネットワークの実行に必要な最小サイズである [224 224 3] に指定します。

inputSize = [224 224 3];

検出するオブジェクト クラスの数を定義します。

numClasses = width(vehicleDataset)-1;

この例で使用される学習イメージは 224 行 224 列より大きいさまざまなサイズを持つため、学習前の前処理手順でイメージのサイズを変更しなければなりません。

次に、estimateAnchorBoxesを使用して、学習データ内のオブジェクトのサイズに基づいてアンカー ボックスを推定します。学習前のイメージのサイズ変更を考慮するには、アンカー ボックスを推定する学習データのサイズを変更します。transformを使用して学習データの前処理を行い、アンカー ボックスの数を定義してアンカー ボックスを推定します。サポート関数preprocessDataを使用して、学習データのサイズをネットワークの入力イメージ サイズに変更します。

trainingDataForEstimation = transform(trainingData,@(data)preprocessData(data,inputSize)); numAnchors = 7; [anchorBoxes, meanIoU] = estimateAnchorBoxes(trainingDataForEstimation, numAnchors)
anchorBoxes =7×2162 136 85 80 149 123 43 32 65 63 117 105 33 27
meanIoU = 0.8472

アンカー ボックスの選択の詳細は、学習データからのアンカー ボックスの推定(Computer Vision Toolbox™) およびアンカー ボックスによるオブジェクトの検出を参照してください。

次に、resnet50を使用して事前学習済みの ResNet-50 モデルを読み込みます。

featureExtractionNetwork = resnet50;

'activation_40_relu'を特徴抽出層として選択して、'activation_40_relu'の後の層を検出サブネットワークに置き換えます。この特徴抽出層は、係数 16 でダウンサンプリングされる特徴マップを出力します。このダウンサンプリングの量は、空間分解能と抽出される特徴の強度との適切なトレードオフです (ネットワークでさらに抽出された特徴により、より強力なイメージの特徴が符号化されますが、空間分解能は低下します)。最適な特徴抽出層を選択するには経験的解析が必要です。

featureLayer ='activation_40_relu';

YOLO v2 オブジェクト検出ネットワークを作成します。

lgraph = yolov2Layers(inputSize,numClasses,anchorBoxes,featureExtractionNetwork,featureLayer);

Deep Learning Toolbox™ からanalyzeNetworkまたはディープ ネットワーク デザイナーを使用してネットワークを可視化できます。

YOLO v2 ネットワーク アーキテクチャに対してより細かい制御が必要な場合、ディープ ネットワーク デザイナーを使用して YOLO v2 検出ネットワークを手動で設計します。詳細については、YOLO v2 検出ネットワークの設計を参照してください。

データ拡張

データ拡張は、学習中に元のデータをランダムに変換してネットワークの精度を高めるために使用されます。データ拡張を使用すると、ラベル付き学習サンプルの数を実際に増やす必要なく、学習データの種類を増やすことができます。

transformを使用して、イメージと関連するボックス ラベルを水平方向にランダムに反転させることによって学習データを拡張します。データ拡張は、テスト データと検証データには適用されないことに注意してください。理想的には、テスト データと検証データは元のデータを代表するもので、バイアスのない評価を行うために変更なしで使用されなければなりません。

augmentedTrainingData = transform(trainingData,@augmentData);

同じイメージを複数回読み取り、拡張された学習データを表示します。

% Visualize the augmented images.augmentedData =细胞(41);fork = 1:4 data = read(augmentedTrainingData); augmentedData{k} = insertShape(data{1},'Rectangle',data{2}); reset(augmentedTrainingData);endfigure montage(augmentedData,'BorderSize',10)

学習データの前処理

拡張された学習データと検証データを前処理して学習用に準備します。

preprocessedTrainingData = transform(augmentedTrainingData,@(data)preprocessData(data,inputSize)); preprocessedValidationData = transform(validationData,@(data)preprocessData(data,inputSize));

前処理された学習データを読み取ります。

data = read(preprocessedTrainingData);

イメージと境界ボックスを表示します。

I = data{1}; bbox = data{2}; annotatedImage = insertShape(I,'Rectangle',bbox); annotatedImage = imresize(annotatedImage,2); figure imshow(annotatedImage)

YOLO v2 オブジェクト検出器に学習させる

trainingOptionsを使用してネットワーク学習オプションを指定します。前処理済みの検証データに'ValidationData'を設定します。'CheckpointPath'を一時的な場所に設定します。これにより、学習プロセス中に部分的に学習させた検出器を保存できます。停電やシステム障害などで学習が中断された場合に、保存したチェックポイントから学習を再開できます。

options = trainingOptions('sgdm',...'MiniBatchSize',16,....'InitialLearnRate',1e-3,...“MaxEpochs”,20,...'CheckpointPath',tempdir,...'ValidationData',preprocessedValidationData);

doTrainingが true の場合、関数trainYOLOv2ObjectDetectorを使用して YOLO v2 オブジェクト検出器に学習させます。そうでない場合は、事前学習済みのネットワークを読み込みます。

ifdoTraining% Train the YOLO v2 detector.[detector,info] = trainYOLOv2ObjectDetector(preprocessedTrainingData,lgraph,options);else% Load pretrained detector for the example.pretrained = load('yolov2ResNet50VehicleExample_19b.mat'); detector = pretrained.detector;end

この例は、12 GB メモリ搭載の NVIDIA™ Titan X GPU で検証済みです。GPU のメモリがこれより少ない場合、メモリ不足が発生する可能性があります。これが発生した場合は、関数trainingOptionsを使用して'MiniBatchSize'を減らします。この設定を使用してこのネットワークに学習させるのに約 7 分かかりました。学習所要時間は使用するハードウェアによって異なります。

迅速なテストとして、1 つのテスト イメージ上で検出器を実行します。イメージのサイズを変更して学習イメージと同じサイズにします。

I = imread('highway.png'); I = imresize(I,inputSize(1:2)); [bboxes,scores] = detect(detector,I);

結果を表示します。

I = insertObjectAnnotation(I,'rectangle',bboxes,scores); figure imshow(I)

テスト セットを使用した検出器の評価

大規模なイメージ セットで学習済みのオブジェクト検出器を評価し、パフォーマンスを測定します。Computer Vision Toolbox™ には、平均適合率 (evaluateDetectionPrecision) や対数平均ミス率 (evaluateDetectionMissRate) などの一般的なメトリクスを測定するオブジェクト検出器の評価関数が用意されています。この例では、平均適合率メトリクスを使用してパフォーマンスを評価します。平均適合率は、検出器が正しい分類を実行できること (適合率) と検出器がすべての関連オブジェクトを検出できること (再現率) を示す単一の数値です。

学習データと同じ前処理変換をテスト データに適用します。データ拡張はテスト データには適用されないことに注意してください。テスト データは元のデータを代表するもので、バイアスのない評価を行うために変更なしで使用されなければなりません。

preprocessedTestData = transform(testData,@(data)preprocessData(data,inputSize));

すべてのテスト イメージに対して検出器を実行します。

detectionResults = detect(detector, preprocessedTestData);

平均適合率メトリクスを使用してオブジェクト検出器を評価します。

[ap,recall,precision] = evaluateDetectionPrecision(detectionResults, preprocessedTestData);

適合率/再現率 (PR) の曲線は、さまざまなレベルの再現率における検出器の適合率を示しています。すべてのレベルの再現率で適合率が 1 になるのが理想的です。より多くのデータを使用すると平均適合率を向上できますが、学習に必要な時間が長くなる場合があります。PR 曲線をプロットします。

figure plot(recall,precision) xlabel('Recall') ylabel('Precision') gridontitle(sprintf('Average Precision = %.2f',ap))

コード生成

検出器に学習させて評価したら、GPU Coder™ を使用してyolov2ObjectDetectorのコードを生成できます。詳細については、YOLO v2 を使用したオブジェクト検出のコードの生成(GPU Coder)の例を参照してください。

サポート関数

functionB = augmentData(A)% Apply random horizontal flipping, and random X/Y scaling. Boxes that get% scaled outside the bounds are clipped if the overlap is above 0.25. Also,% jitter image color.B = cell(size(A)); I = A{1}; sz = size(I);ifnumel(sz)==3 && sz(3) == 3 I = jitterColorHSV(I,...'Contrast',0.2,...'Hue',0,...'Saturation',0.1,...'Brightness',0.2);end% Randomly flip and scale image.tform = randomAffine2d('XReflection',true,'Scale',[1 1.1]); rout = affineOutputView(sz,tform,'BoundsStyle','CenterOutput'); B{1} = imwarp(I,tform,'OutputView',rout);% Sanitize box data, if needed.A{2} = helperSanitizeBoxes(A{2}, sz);% Apply same transform to boxes.[B{2},indices] = bboxwarp(A{2},tform,rout,'OverlapThreshold',0.25); B{3} = A{3}(indices);% Return original data only when all boxes are removed by warping.ifisempty(indices) B = A;endendfunctiondata = preprocessData(data,targetSize)% Resize image and bounding boxes to the targetSize.sz = size(data{1},[1 2]); scale = targetSize(1:2)./sz; data{1} = imresize(data{1},targetSize(1:2));% Sanitize box data, if needed.data{2} = helperSanitizeBoxes(data{2},sz);% Resize boxes to new image size.data{2} = bboxresize(data{2},scale);end

参考文献

[1] Redmon, Joseph, and Ali Farhadi. "YOLO9000: Better, Faster, Stronger." In2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 6517–25. Honolulu, HI: IEEE, 2017. https://doi.org/10.1109/CVPR.2017.690.