主要内容

ClassificationEnsemble

パッケ,ジ:classreg.learning.classif
ス,パ,クラス:CompactClassificationEnsemble

アンサンブル分類器

説明

ClassificationEnsembleは,学習済みの弱学習器モデルのセット,およびそれらの学習器が学習を行ったデ,タを結合します。この関数では,弱学習器からの予測を集約することにより,新しいデータに対するアンサンブル応答を予測できます。学習に使用したデ,タが格納され,再代入予測を計算することができ,必要な場合は学習を再開できます。

構築

アンサンブル分類オブジェクト(实体)を作成するには,fitcensembleを使用します。

プロパティ

BinEdges

数値予測子のビンのエッジ。p個の数値ベクトルが含まれている cell 配列を指定します。p は予測子の個数です。各ベクトルには、数値予測子のビンのエッジを含めます。カテゴリカル予測子はビン化されないので、カテゴリカル予測子の場合は、この cell 配列の要素を空にします。

数値予測子がビン化されるのは,木学習器を使用してモデルに学習をさせるときに名前と値の引数“NumBins”として正の整数スカラ,を指定した場合だけです。“NumBins”の値が空(既定)である場合,BinEdgesプロパティは空になります。

学習済みモデルmdlBinEdgesプロパティを使用することにより,ビン化された予測子デ,タXbinnedを再現できます。

X = mdl.X;%预测数据Xbinned = 0(大小(X));edges = mdl.BinEdges;查找已分类预测符的索引。idxNumeric = find(~cellfun(@isempty,edges));if iscolumn(idxNumeric) idxNumeric = idxNumeric';end for j = idxNumeric x = x (:,j);如果x是一个表,则将x转换为数组。If stable(x) x = table2array(x);将x分组到箱子中离散化函数。Xbinned =离散化(x,[-inf;边缘{};正]);Xbinned(:,j) = Xbinned;结束
数値予測子の場合,1からビンの個数までの範囲にあるビンのンデックスがXbinnedに格納されます。カテゴリカル予測子の場合,Xbinnedの値は0になります。Xが含まれている場合,対応するXbinnedの値はになります。

CategoricalPredictors

カテゴリカル予測子の@ @ンデックス。正の整数のベクトルとして指定します。CategoricalPredictorsには,対応する予測子がカテゴリカルであることを示す。ンデックス値の範囲は1 ~pです。pはモデルの学習に使用した予測子の数です。どの予測子もカテゴリカルではない場合、このプロパティは空([])になります。

一会

重複が削除されたYの要素のリスト。一会には,数値ベクトル,直言ベクトル,逻辑ベクトル,文字配列,文字ベクトルの细胞配列のいずれかを指定できます。一会のデ,タ型は,引数Yのデ,タ型と同じです。(字符串配列は文字ベクトルのcell配列として扱われます)。

CombineWeights

实体による弱学習器の重みの結合法を説明する文字ベクトル。“WeightedSum”または“WeightedAverage”のどらかになります。

成本

正方行列。成本(i, j)は真のクラスがである点をクラスjに分類するコストです(行は真のクラス,列は予測したクラスに対応します)。成本の行と列の順序は,一会のクラスの順序に対応します。成本の行および列の数は,応答に含まれている一意なクラスの数です。このプロパティは読み取り専用です。

ExpandedPredictorNames

展開された予測子名。文字ベクトルのcell配列として格納されます。

モデルがカテゴリカル変数用のエンコ,ディングを使用している場合,ExpandedPredictorNamesには展開された変数を表す名前が格納されます。それ以外の場合,ExpandedPredictorNamesPredictorNamesと同じです。

FitInfo

近似情報の数値配列。FitInfoDescriptionプロパティは,この配列の内容を記述します。

FitInfoDescription

配列FitInfoの意味を表す文字ベクトル。

HyperparameterOptimizationResults

ハパパラメタの交差検証最適化の説明。BayesianOptimizationオブジェクト,またはハパパラメタおよび関連する値が含まれているテブルとして格納されます。作成時に名前と値のペアOptimizeHyperparametersが空ではない場合,これは空ではありません。値は,作成時の名前と値のペアHyperparameterOptimizationOptionsの設定によって決まります。

  • “bayesopt”(既定)-BayesianOptimizationクラスのオブジェクト

  • “gridsearch”または“randomsearch”——使用したハイパーパラメーター,観測された目的関数の値(交差検証損失),および最低(最良)から最高(最悪)までの観測値の順位が格納されているテーブル

LearnerNames

アンサンブルに含まれている弱学習器の名前をも文字ベクトルのcell配列。各学習器の名前は一度だけ現れます。たとえば,リが100本のアンサンブルの場合は,LearnerNames{'树'}になります。

方法

实体を作成する方法を表す文字ベクトル。

ModelParameters

实体の学習に使用されるパラメタ。

NumObservations

学習デタにある観測値の数を含む数値スカラ。

NumTrained

实体の学習済みの弱学習器の数,スカラ。

PredictorNames

予測子変数の名前のcell配列。並びはXに現れる順です。

之前

各クラスの事前確率の数値ベクトル。之前の要素の順序は,一会のクラスの順序に対応します。之前の要素数は,応答に含まれている一意なクラスの数です。このプロパティは読み取り専用です。

ReasonForTermination

fitcensembleがアンサンブルへの弱学習器の追加を停止した理由を表す文字ベクトル。

ResponseName

応答変数Yの名前をも文字ベクトル。

ScoreTransform

スコア変換用の関数ハンドル,または組み込みの変換関数を表す文字ベクトル。“没有”は変換なしを意味します。等価的には,“没有”@ x (x)です。組み込みの変換関数のリストとカスタム変換関数の構文は,fitctreeを参照してください。

ドット表記を使用して関数ScoreTransformを追加または変更します。

ens.ScoreTransform = 'function'

または

ens.ScoreTransform = @function

训练有素的

学習済み分類モデルのcellベクトル。

  • 方法“LogitBoost”または“GentleBoost”の場合,ClassificationEnsemble训练有素的{jに格納されているオブジェクトのCompactRegressionLearnerプロパティに学習済みの学習器jを格納します。まり,学習済み学習器jにアクセスするには,ens.Trained {j}。CompactRegressionLearnerを使用します。

  • それ以外の場合,対応するコンパクトな分類モデルが单元格ベクトルのセルに格納されます。

TrainedWeights

实体の弱学習器のための学習済み重みを表す数値ベクトル。TrainedWeightsにはT個の要素があり,T学习者の弱学習器の数を表します。

UsePredForLearner

サereplicationズPNumTrained列の逻辑行列であり,ここで,Pは学習デ,タXの予測子(列)の数です。UsePredForLearner (i, j)は,学習器jが予測子を使用するときに真正的になり,それ以外の場合はになります。それぞれの学習器に対して,予測子は学習デ,タXの列と同じ順序になります。

アンサンブルが子空间型ではない場合,UsePredForLearner内のすべてのエントリは真正的です。

W

スケ,ルされた权重,長さnのベクトル,Xの行の数。Wの要素の合計は1です。

X

アンサンブルに学習させた予測子の値の行列または表。Xの各列が1の変数を表し,各行が1。

Y

数値ベクトル,直言ベクトル,逻辑ベクトル,文字配列,または文字ベクトルの细胞配列。Yの各行は,Xの対応する行の分類を表します。

オブジェクト関数

紧凑的 コンパクトなアンサンブル分類
compareHoldout 新しいデタを使用して2の分類モデルの精度を比較
crossval アンサンブルの交差検証
边缘 分類エッジ
收集 Gpuからの统计和机器学习工具箱オブジェクトのプロパティの収集
石灰 局部可解释模型不可知解释(LIME)
损失 分類誤差
保证金 分類マ,ジン
partialDependence 部分従属の計算
plotPartialDependence 部分依存プロット(pdp)および個別条件付き期待値(ice)プロットの作成
预测 分類モデルのアンサンブルを使用して観測値を分類
predictorImportance 決定木の分類アンサンブルに関する予測子の重要度の推定
resubEdge 再代入による分類エッジ
resubLoss 再代入による分類誤差
resubMargin 再代入による分類マ,ジン
resubPredict 分類モデルのアンサンブル内の観測値を分類
重新开始 学習アンサンブルの再開
沙普利 シャプレ値
testckfold 交差検証の反復により2の分類モデルの精度を比較

コピ,のセマンティクス

値。値のクラスがコピ操作に与える影響にいては,オブジェクトのコピを参照してください。

すべて折りたたむ

电离层デ,タセットを読み込みます。

负载电离层

すべての測定値とAdaBoostM1メソッドを使用して,100本の分類木があるブ,スティングアンサンブルに学習をさせます。

Mdl = fitcensemble(X,Y,“方法”“AdaBoostM1”
Mdl = ClassificationEnsemble ResponseName: 'Y' CategoricalPredictors: [] ClassNames: {'b' 'g'} ScoreTransform: 'none' NumObservations: 351 NumTrained: 100 Method: 'AdaBoostM1' LearnerNames: {'Tree'} reasonforterminate: '完成所要求的训练周期数后正常终止。'FitInfo: [100x1 double] FitInfoDescription: {2x1 cell}属性,方法

MdlClassificationEnsembleモデルオブジェクトです。

Mdl。Trainedは、アンサンブルを構成する学習済み分類木(CompactClassificationTreeモデルオブジェクト)の100行1列の细胞ベクトルが格納されているプロパティです。

1番目の学習済み分類木のグラフをプロットします。

视图(Mdl。训练有素的{1},“模式”“图”

{

既定の設定では,fitcensembleは木のブ,スティングアンサンブルに対して浅い木を成長させます。

Xの平均のラベルを予測します。

predMeanX = predict(Mdl,mean(X))
predMeanX =1x1单元阵列{' g '}

ヒント

分類木のアンサンブルの場合,コンパクトな分類モデルから成るens.NumTrained行1列のcellベクトルが实体训练有素的プロパティに格納されます。细胞ベクトルの木tをテキストまたはグラフィックで表示するには,以下を入力します。

  • LogitBoostまたはGentleBoostを使用して集約したアンサンブルの場合は"视图(实体。训练有素的{t} .CompactRegressionLearner)」。

  • 他のすべての集約方法の場合は”视图(实体。训练有素的{t})」。

拡張機能

バ,ジョン履歴

R2011aで導入

すべて展開する