主要内容

templateEnsemble

アンサンブル学習テンプレ,ト

説明

t= templateEnsemble (方法NLearn学习者は,アンサンブル集約法方法,学習サescクル数NLearnおよび弱学習器学习者を使用するように指定するアンサンブル学習テンプレ,トを返します。

アンサンブル学習専用のテンプレト(t)のその他すべてのオプションは空で表示されますが,学習中は対応する既定値が使用されます。

t= templateEnsemble (方法NLearn学习者名称,值は1つ以上の名前と値のペアの引数で指定された追加オプションを使用して,アンサンブルテンプレートを返します。

たとえば,各ランダム部分空間学習器の予測子の数,縮小学習率またはRobustBoostの目標分類誤差を指定できます。

tをコマンドウィンドウに表示した場合,名前と値のペアの引数を使用して指定したオプションを除くすべてのオプションが空([])として表示されます。学習中,空のオプションに既定値が使用されます。

すべて折りたたむ

templateEnsembleを使用して,アンサンブル学習テンプレ,トを指定します。アンサンブル法,学習サaaplクルの数,弱学習器の型を指定しなければなりません。たとえば,AdaBoostM1 法、100 個の学習器および分類木弱学習器を指定します。

t = templateEnsemble(“AdaBoostM1”, 100,“树”
t =适合AdaBoostM1分类模板。类型:'classification'方法:'AdaBoostM1' LearnerTemplates: 'Tree' NLearn: 100 LearnRate: []

方法类型LearnerTemplatesおよびNLearnを除き,テンプレ,トオブジェクトのすべてのプロパティは空です。学習の際,空のプロパティはそれぞれの既定値で入力されます。たとえば,LearnRateプロパティは,1で入力されます。

tはアンサンブル学習器の計画で,それを指定する場合,計算は実行されません。tfitcecocに渡して,ecocマルチクラス学習のアンサンブルバeconcナリ学習器を指定できます。

fitcecocで使用するためのアンサンブルテンプレ,トを作成します。

不整脈デ,タセットを読み込みます。

负载心律失常汇总(分类(Y));
数值计数百分比1 245 54.20% 2 44 9.73% 3 15 3.32% 4 15 3.32% 5 13 2.88% 6 25 5.53% 73 0.66% 8 2 0.44% 99 1.99% 10 50 11.06% 14 4 0.88% 15 5 1.11% 16 22 4.87%
rng (1);%用于再现性

一部のクラスでは,デ,タ内の相対的頻度が小さいです。

分類木のAdaBoostM1アンサンブルに対するテンプレートを作成し,100個の学習器および0.1という縮小を使用するよう指定します。既定の設定では,ブースティングは切り株(たとえば葉のセットをもつ1つのノード)を成長させます。頻度の小さいクラスがあるので,少数のクラスが十分な感度をもつように,ツリーのリーフ数を多くしなければなりません。葉ノドの観測値の最小数を3に指定します。

树= templateTree(“MinLeafSize”, 20);t = templateEnsemble(“AdaBoostM1”、100、tTree“LearnRate”, 0.1);

方法类型および関数呼び出し内の名前と値のペア引数の対応するプロパティを除き,テンプレートオブジェクトのすべてのプロパティは空です。tを学習関数に渡す場合,空のプロパティはそれぞれの既定値で入力されます。

tをecocマルチクラスモデルのバescナリ学習器として指定します。既定の1対1の符号化設計を使用して学習させます。

Mdl = fitcecoc(X,Y,“学习者”t);
  • MdlClassificationECOCマルチクラスモデルです。

  • Mdl。BinaryLearnersCompactClassificationEnsembleモデルの78行1列のcell配列です。

  • Mdl.BinaryLearners {j} .Trainedは,j= 1,……,78 の場合にCompactClassificationTreeモデルの100行1列のcell配列です。

视图を使用して,バaaplナリ学習器のいずれかが,切り株ではない弱学習器を含むことを検証できます。

视图(Mdl.BinaryLearners {1} .Trained {1},“模式”“图”

{

標本内(再代入)誤分類誤差を表示します。

L = resubLoss(Mdl,“LossFun”“classiferror”
L = 0.0819

代理分岐をも決定木のGentleBoostアンサンブルを使用して,1対他のecoc分類器に学習をさせます。学習を高速化するため,数値予測子をビン化し,並列計算を使用します。ビン化は,fitcecocが木学習器を使用する場合のみ有効です。学習後,10分割交差検証を使用して分類誤差を推定します。並列計算には并行计算工具箱™が必要であることに注意してください。

標本デ,タの読み込み

心律失常デ,タセットを読み込み検証します。

负载心律失常[n,p] = size(X)
N = 452
P = 279
isLabels =唯一的(Y);nLabels = number (isLabels)
nLabels = 13
汇总(分类(Y))
数值计数百分比1 245 54.20% 2 44 9.73% 3 15 3.32% 4 15 3.32% 5 13 2.88% 6 25 5.53% 73 0.66% 8 2 0.44% 99 1.99% 10 50 11.06% 14 4 0.88% 15 5 1.11% 16 22 4.87%

このデ,タセットには279個の予測子が含まれ,452という標本サ@ @ズは相対的に小さいものです。16 個の異なるラベルのうち、13 個のみが応答 (Y)で表現されています。各ラベルは不整脈のさまざまな段階を表しており,観測値の54.20%がクラス1に含まれています。

1対他ecoc分類器の学習

アンサンブルテンプレ,トを作成します。少なくとも3の引数を指定しなければなりません。手法,学習器の数,および学習器のタesc escプです。この例では,手法として“GentleBoost”,学習器の個数としてOne hundred.を指定します。欠損観測値があるので,代理分岐を使用する決定木テンプレ,トを指定します。

树= templateTree(“代孕”“上”);tEnsemble =模板集成(“GentleBoost”, 100年,tTree);

tEnsembleはテンプレ,トオブジェクトです。ほとんどのプロパティは空ですが,学習中に既定値が入力されます。

決定木のアンサンブルをバesc escナリ学習器として使用して,1対他のesc分類器を学習させます。学習を高速化するため,ビン化と並列計算を使用します。

  • ビン化(“NumBins”,50岁) -学習デ,タセットが大きい場合,名前と値のペアの引数“NumBins”を使用することにより学習を高速化できます(精度が低下する可能性があります)。この引数は,fitcecocが木学習器を使用する場合のみ有効です。“NumBins”の値を指定した場合,指定した個数の同確率のビンにすべての数値予測子がビン化され,元のデータではなくビンのインデックスに対して木が成長します。はじめに“NumBins”,50岁を試してから,精度と学習速度に応じて“NumBins”の値を変更できます。

  • 並列計算 (“选项”,statset (UseParallel,真的))——并行计算工具箱のライセンスがある場合,プール内のワーカーに各バイナリ学習器を送る並列計算を使用して,計算を高速化できます。ワ,カ,の個数はシステム構成によって異なります。デュアルコア以上のシステムの場合,バ化学键ナリ学習器に化学键いて決定木を使用すると,fitcecocは英特尔®スレッディングビルディングブロック(TBB)を使用して学習を並列化します。したがって,単一のコンピュ,タ,で“UseParallel”オプションを指定しても役に立ません。このオプションは,クラスタ,に対して使用します。

さらに,事前確率として1/Kを指定します。K= 13は異なるクラスの個数です。

选项= statset(“UseParallel”,真正的);Mdl = fitcecoc(X,Y,“编码”“onevsall”“学习者”tEnsemble,...“之前”“统一”“NumBins”, 50岁,“选项”、选择);
使用“本地”配置文件启动并行池(parpool)…连接到并行池(工人数:6)。

MdlClassificationECOCモデルです。

交差検証

10分割交差検証を使用してecoc分類器の交差検証を実行します。

CVMdl = crossval(Mdl,“选项”、选择);
警告:一个或多个折叠不包含所有组中的点。

CVMdlClassificationPartitionedECOCモデルです。少なくとも1。したがって,これらの分割は欠損クラスに対するラベルを予測できません。细胞のaaplンデックス指定とドット表記を使用して,分割の結果を調査できます。たとえば,1番目の分割の結果にアクセスするにはCVMdl。训练有素的{1}と入力します。

交差検証済みのecoc分類器を使用して,検証分割のラベルを予測します。混同行列は,confusionchartを使用して計算できます。内側の位置のプロパティを変更してチャートを移動およびサイズ変更することにより,行要約の内部にパーセントが表示されるようにします。

oolabel = kfoldPredict(cvdl,“选项”、选择);ConfMat =混淆表(Y, oolabel,“RowSummary”“total-normalized”);ConfMat。InnerPosition = [0.10 0.12 0.85 0.85];

ビン化されたデ,タの再現

学習済みモデルのBinEdgesプロパティと関数离散化を使用して,ビン化された予測子デ,タを再現します。

X = Mdl.X;预测数据Xbinned = 0(大小(X));edges = mld . binedges;查找已分类预测符的索引。idxNumeric = find(~cellfun(@isempty,edges));如果iscolumn(idxNumeric) idxNumeric = idxNumeric';结束j = idxNumeric x = x (:,j);如果x是一个表,则将x转换为数组。如果stable(x) x = table2array(x);结束使用离散化函数将x分组到箱子中。Xbinned =离散化(x,[-inf;边缘{};正]);Xbinned(:,j) = Xbinned;结束

数値予測子の場合,1からビンの個数までの範囲にあるビンのンデックスがXbinnedに格納されます。カテゴリカル予測子の場合,Xbinnedの値は0になります。Xが含まれている場合,対応するXbinnedの値はになります。

入力引数

すべて折りたたむ

アンサンブル集約法。次の一覧に記載されている方式名のいずれかを指定します。

  • 2のクラスによる分類:

    • “AdaBoostM1”

    • “LogitBoost”

    • “GentleBoost”

    • “RobustBoost”(优化工具箱が必要)

    • “LPBoost”(优化工具箱が必要)

    • “TotalBoost”(优化工具箱が必要)

    • “RUSBoost”

    • “子”

    • “包”

  • 3以上のクラスによる分類:

    • “AdaBoostM2”

    • “LPBoost”(优化工具箱が必要)

    • “TotalBoost”(优化工具箱が必要)

    • “RUSBoost”

    • “子”

    • “包”

  • 回帰:

    • “LSBoost”

    • “包”

“包”は分類問題と回帰問題に対して指定できるので,“方法”,“包”を指定する場合,名前と値のペアの引数类型を使用して問題のタ@ @プを指定します。

アンサンブル集約アルゴリズムの詳細と例にいては,アンサンブルアルゴリズムおよび適用するアンサンブル集約法の選択を参照してください。

アンサンブル学習サ@ @クルの数。正の整数または“AllPredictorCombinations”を指定します。

  • 正の整数を指定した場合,すべての学習サ▪▪▪▪クルで,1▪▪▪の弱学習器が学习者内のすべてのテンプレトオブジェクトにいて学習します。この結果,延べNLearn *元素个数(学习者)個の学習器が学習を行います。

  • “AllPredictorCombinations”を指定する場合は,方法“子”に設定し,学习者で1の学習器のみを指定します。このように設定すると,予測子が一度にNPredToSample個抽出され,その可能な組み合わせすべてに対して学習器が学習を行います。この結果,nchoosek(NPredToSample大小(X, 2))個の学習器が学習を行います。

詳細は,ヒントを参照してください。

デ,タ型:||字符|字符串

アンサンブルで使用する弱学習器。弱学習器の名前、弱学習器テンプレ,トオブジェクト、または弱学習器テンプレ,トオブジェクトの cell 配列を指定します。

弱学習器 弱学習器の名前 テンプレ,トオブジェクト作成関数 方法の設定
判別分析 “判别” templateDiscriminant “子”を推奨
K最近傍 “资讯” templateKNN “子”のみ
決定木 “树” templateTree “子”を除くすべての手法

詳細は,NLearnおよびヒントを参照してください。

例:2種類の分類木から構成されるアンサンブルの場合,{t1 t2}を指定します。t1t2は分類木テンプレ,トです。

名前と値の引数

オプションの引数のペアをName1 = Value1,…,以=家として指定します。ここで的名字は引数名,价值は対応する値です。名前と値の引数は他の引数の後ろにする必要がありますが、ペアの順序は関係ありません。

R2021aより前では,名前と値をそれぞれコンマを使って区切り,的名字を引用符で囲みます。

例:“LearningRate”,0.05,“NPrint”,5は,学習率として0.05を使用し,5個の学習器に学習をさせるたびにメッセジをコマンドランに表示するよう指定します。

一般的なアンサンブルオプション

すべて折りたたむ

出力頻度。“NPrint”と正の整数または“关闭”から構成されるコンマ区切りのペアとして指定します。

これまでに学習をさせた"弱学習器"または"分割"の個数を追跡するには,正の整数を指定します。まり,正の整数mを指定し,さらに

  • 近似関数の交差検証オプション(CrossValなど)を指定していない場合,m個の弱学習器の学習が完了するたびにコマンドラインにメッセージが表示されます。

  • 交差検証オプションを指定した場合,m個の分割の学習が完了するたびにコマンドラインにメッセージが表示されます。

“关闭”を指定した場合,弱学習器の学習が完了してもメッセ,ジは表示されません。

ヒント

大規模なデ,タセットに対して多数の弱学習器のアンサンブルに学習をさせる場合,正の整数をNPrintに指定してください。

例:“NPrint”,5

デ,タ型:||字符|字符串

教師あり学習のタ@ @プ。“类型”“分类”または“回归”から構成されるコンマ区切りのペアとして指定します。

  • 方法“包”の場合,教師あり学習のタ。このため,バギングを行うときは类型を指定します。

  • それ以外の場合は,方法の値により教師あり学習のタ@ @プが決まります。

例:“类型”、“分类”

ブ,スティング法およびバギングのサンプリングオプション

すべて折りたたむ

すべての弱学習器にいてリサンプリングされる学習セットの比率。(0,1]の正のスカラ.として指定します。“FResample”を使用するには,重新取样“上”に設定します。

例:“FResample”,0.75

デ,タ型:|

復元抽出を示すフラグ。“替换”“关闭”または“上”から構成されるコンマ区切りのペアとして指定します。

  • “上”の場合,学習観測値が復元抽出されます。

  • “关闭”の場合,学習観測値が非復元抽出されます。重新取样“上”に設定した場合,重みが均一であるという前提で学習観測値がサンプリングされます。ブ,スティング法も指定した場合,観測値が再重み付けされてブ,スティングが行われます。

方法“包”に設定した場合と重新取样“上”に設定した場合を除いて,取代の効果はありません。

例:“替换”、“关闭”

リサンプリングを示すフラグ。重新取样的“关闭”または“上”から構成されるコンマ区切りのペアとして指定します。

  • 方法がブ,スティング法である場合,次のようになります。

    • 重新取样,“は,更新された重みを多項サンプリング確率として使用することにより学習観測値をサンプリングするよう指定します。

    • “重新取样”,“关闭”(既定)は,すべての学習反復で観測値を再重み付けするよう指定します。

  • 方法“包”の場合,重新取样的“上”でなければなりません。一定の比率(FResampleを参照)の学習観測値が復元抽出または非復元抽出(取代を参照)でリサンプリングされます。

重新取样を使用してリサンプリングを指定する場合は,デ,タセット全体に対してのリサンプリングをお勧めします。まり,FResampleの既定設定である1を使用します。

AdaBoostM1, AdaBoostM2, LogitBoost, GentleBoostおよびLSBoost法のオプション

すべて折りたたむ

縮小学習率。“LearnRate”と区間(0,1]の数値スカラ.から構成されるコンマ区切りのペアとして指定します。

縮小を使用してアンサンブルに学習をさせるには,LearnRate1未満の値(一般的な0.1など)に設定します。縮小を使用してアンサンブルに学習をさせると,学習反復数を増やす必要がありますが,多くの場合精度が向上します。

例:“LearnRate”,0.1

デ,タ型:|

RUSBoost法のオプション

すべて折りたたむ

縮小学習率。“LearnRate”と区間(0,1]の数値スカラ.から構成されるコンマ区切りのペアとして指定します。

縮小を使用してアンサンブルに学習をさせるには,LearnRate1未満の値(一般的な0.1など)に設定します。縮小を使用してアンサンブルに学習をさせると,学習反復数を増やす必要がありますが,多くの場合精度が向上します。

例:“LearnRate”,0.1

デ,タ型:|

最小相当クラスにいてのサンプリング比率。“RatioToSmallest”と数値スカラー,または学習データ内の異なるクラス数と同じ長さをもつ正の値の数値ベクトルから構成されるコンマ区切りのペアとして指定します。

学習デ,タにK個のクラスがあり,最小相当クラスには個の観測値があるとします。

  • 正の数値スカラ年代を指定した場合,年代個の観測値が各クラスから標本抽出されます。まり,各クラスでのサンプリング比率が同じになります。詳細は、アルゴリズムを参照してください。

  • 数値ベクトルs1s2、……sKを指定した場合,如果個の観測値がクラス= 1,…,k)から標本抽出されます。RatioToSmallestの要素は,近似関数の名前と値のペアの引数一会を使用して指定されたクラス名に同じ順序で対応します(ヒントを参照)。

既定値は(K,1)で,個の観測値を各クラスから抽出するよう指定します。

例:‘RatioToSmallest’,(2,1)

デ,タ型:|

LPBoostおよびTotalBoost法のオプション

すべて折りたたむ

収束速度を制御するマ,ジン精度。“MarginPrecision”と区間[0,1]の数値スカラ.から構成されるコンマ区切りのペアとして指定します。MarginPrecisionは,収束に必要なブ,スティング反復回数に影響を与えます。

ヒント

多数の学習器を使用してアンサンブルに学習をさせるには,MarginPrecisionに小さい値を指定します。少数の学習器を使用して学習をさせる場合は,大きい値を指定します。

例:“MarginPrecision”,0.5

デ,タ型:|

RobustBoost法のオプション

すべて折りたたむ

目標分類誤差。“RobustErrorGoal”と非負の数値スカラ,から構成されるコンマ区切りのペアとして指定します。可能な値の上限は,RobustMarginSigmaおよびRobustMaxMarginの値によって決まります。ただし,上限が1を超えることはできません。

ヒント

通常は,特定の学習セットにいてRobustErrorGoalの最適な範囲が存在します。小さすぎる値または大きすぎる値を設定した場合,分類精度が低いモデルが生成される可能性があります。適切な値を求めるには,交差検証を試してください。

例:“RobustErrorGoal”,0.05

デ,タ型:|

学習デ,タに対する分類マ,ジンの分布の広がり。“RobustMarginSigma”と正の数値スカラ,から構成されるコンマ区切りのペアとして指定します。RobustMarginSigmaを指定する前に,RobustBoostに関する文献([19]など)を調べてください。

例:“RobustMarginSigma”,0.5

デ,タ型:|

学習デ,タの最大分類マ,ジン。“RobustMaxMargin”と非負の数値スカラ,から構成されるコンマ区切りのペアとして指定します。分類マ,ジンがRobustMaxMargin未満になるように学習デ,タ内の観測値数が最小化されます。

例:“RobustMaxMargin”,1

デ,タ型:|

ランダム部分空間法のオプション

すべて折りたたむ

各ランダム部分空間学習器にいてサンプリングする予測子の個数。“NPredToSample”と区間1,…,p の正の整数から構成されるコンマ区切りのペアとして指定します。p は予測子変数の個数 (大小(X, 2)または大小(台,2))です。

デ,タ型:|

出力引数

すべて折りたたむ

アンサンブル学習の分類テンプレ,ト。テンプレ,トオブジェクトとして返されます。tを,たとえばfitcecocに渡して,ecocモデルのアンサンブル学習分類器の作成方法を指定できます。

コマンドウィンドウでtを表示する場合、すべての未指定のオプションは空([])で表示されます。しかし,空のオプションは学習中に対応する既定値に置き換えられます。

ヒント

  • NLearnは数十から数千までさまざまな数になります。通常,予測力が高いアンサンブルでは数百から数千の弱学習器が必要です。しかし,このような多数のサ。数十個の学習器の学習から開始してアンサンブルの性能を調査し,必要な場合は分類問題用の重新开始または回帰問題用の重新开始を使用して弱学習器の数を増やすことができます。

  • アンサンブルの性能は,アンサンブルの設定と弱学習器の設定によって決まります。まり,既定のパラメーターを使用する弱学習器を指定すると、アンサンブルの性能が低下する可能性があります。このため、アンサンブルの設定と同じように、テンプレートを使用して弱学習器のパラメーターを調整し、汎化誤差が最小になる値を選択することをお勧めします。

  • 重新取样を使用してリサンプリングを指定する場合は,デ,タセット全体に対してのリサンプリングをお勧めします。まり,FResampleの既定設定である1を使用します。

  • 分類問題の場合(;类型“分类”の場合)

    • アンサンブル集約法(方法)が“包”であり,

      • 誤分類コストが非常に不均衡である場合,在袋子の標本について,ペナルティが大きいクラスから一意な観測値がオーバーサンプリングされます。

      • クラスの事前確率の歪みが大きい場合,事前確率が大きいクラスから一意な観測値がオーバーサンプリングされます。

      これらの組み合わせにより,標本サイズが小さい場合,ペナルティまたは事前確率が大きいクラスから抽出されるout-of-bag観測値の相対頻度が非常に低くなる可能性があります。この結果,out-of-bagの推定誤差の変動幅が非常に大きくなり,解釈が困難になる可能性があります。特に標本サイズが小さい場合に,out-of-bagの推定誤差の変動幅が大きくならないようにするには,近似関数の名前と値のペアの引数成本を使用して誤分類コスト行列をより平衡にするか,近似関数の名前と値のペアの引数之前を使用して事前確率ベクトルの歪みを小さくします。

    • 一部の入力引数および出力引数の順序は学習データ内の各クラスに対応するので,近似関数の名前と値のペアの引数一会を使用してクラスの順序を指定することをお勧めします。

      • クラスの順序を簡単に求めるには,未分類の(つまり欠損ラベルがある)学習データからすべての観測値を削除し,個別のクラスがすべて含まれている配列を取得および表示してから,その配列を一会に指定します。たとえば,応答変数 (Y)がラベルのcell配列であるとします。次のコ,ドは,変数一会でクラスの順序を指定します。

        Ycat =分类的(Y);classNames =类别(Ycat)
        分类<定义>を未分類観測値に割り当て,类别<定义>を出力から除外します。したがって,このコードをラベルの细胞配列に対して使用するか,同様のコードを直言配列に対して使用すると,欠損ラベルがある観測値を削除しなくても各クラスのリストを取得できます。

      • 最小相当ラベルから最大相当ラベルの順になるように順序を指定するには,(前の項目のように)クラスの順序を簡単に求め,リスト内のクラスの順序を頻度順に変更してから,リストを一会に渡します。前の例に従うと,次のコ,ドは最小相当から最大相当の順にクラスの順序をclassNamesLHで指定します。

        Ycat =分类的(Y);classNames =类别(Ycat);freq =计数猫(Ycat);[~,idx] = sort(freq);classNamesLH = classNames(idx);

アルゴリズム

  • アンサンブル集約アルゴリズムの詳細にいては,アンサンブルアルゴリズムを参照してください。

  • 方法がブ,スティングアルゴリズム,学习者が決定木になるように指定した場合,既定では“切り株”が成長します。決定株は,2の終端ノド()。木の深さは,templateTreeを使用して名前と値のペアの引数MaxNumSplitsMinLeafSizeおよびMinParentSizeを指定することにより調整できます。

  • 在袋子の標本の生成では,誤分類コストが大きいクラスがオーバーサンプリングされ,誤分類コストが小さいクラスがアンダーサンプリングされます。その結果,out-of-bagの標本では,誤分類コストが大きいクラスの観測値は少なくなり,誤分類コストが小さいクラスの観測値は多くなります。小さなデータセットと歪みが大きいコスト行列を使用してアンサンブル分類を学習させる場合,クラスあたりのout-of-bagの観測値の数は非常に少なくなることがあります。そのため,推定されたout-of-bagの誤差の変動幅が非常に大きくなり,解釈が困難になる場合があります。事前確率が大きいクラスでも同じ現象が発生する場合があります。

  • アンサンブル集約法(方法)がRUSBoostである場合,名前と値のペアの引数RatioToSmallestでは最小相当クラスに関して各クラスのサンプリングの比率を指定します。たとえば,学習デ,タにA および B という 2 つのクラスがあるとします。A には 100 個の観測値、B には 10 個の観測値が含まれています。また、最小相当クラスでは個の観測値が学習デ,タに含まれているとします。

    • “RatioToSmallest”,2を設定した場合,年代2 * 1020.になります。したがって,すべての学習器の学習では,クラスの20個の観測値とクラスBの20個の観測値が使用されます。‘RatioToSmallest’,(2 - 2)を設定した場合も同じ結果になります。

    • ‘RatioToSmallest’,(2,1)を設定した場合,s12 * 1020.およびs21 * 1010になります。したがって,すべての学習器の学習では,クラスの20個の観測値とクラスBの10個の観測値が使用されます。

  • 決定木のアンサンブルの場合とデュアルコア以上のシステムの場合,fitcensemblefitrensembleでは英特尔®スレッディングビルディングブロック(tbb)を使用して学習を並列化します。英特尔TBBの詳細に化学键いては,https://www.intel.com/content/www/us/en/developer/tools/oneapi/onetbb.htmlを参照してください。

バ,ジョン履歴

R2014bで導入