このペ,ジの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。
ランダムな特徴量拡張を使用してガウスカ,ネル分類モデルをあてはめる
fitckernel
は,非線形分類用のバ。fitckernel
は,大規模な学習セットが含まれているビッグデータ事例に対する方が実用的ですが,メモリに収まる小規模なデータセットにも適用できます。
fitckernel
は,低次元空間のデータを高次元空間にマッピングしてから,正則化された目的関数を最小化することによって高次元空間で線形モデルをあてはめます。高次元空間で線形モデルを取得することは,低次元空間におけるモデルへのガウスカーネルの適用と等価です。使用可能な線形分類モデルには,正則化されたサポートベクターマシン(SVM)とロジスティック回帰モデルがあります。
▪▪▪▪fitcsvm
を参照してください。
は,テ,ブルMdl
= fitckernel (资源描述
,ResponseVarName
)资源描述
に含まれる予測子変数と资源描述。ResponseVarName
内のクラスラベルを使用して学習させたカ,ネル分類モデルMdl
を返します。
[
は,名前と値のペアの引数Mdl
,FitInfo
,HyperparameterOptimizationResults
= fitckernel(___)“OptimizeHyperparameters”
を使用してハイパーパラメーターを最適化する場合に,ハイパーパラメーター最適化の結果HyperparameterOptimizationResults
も返します。
支持向量机を使用して,バ,ナリカ,ネル分類モデルに学習をさせます。
电离层
デ,タセットを読み込みます。このデタセットには,レダ反射にいての34個の予測子と,不良(“b”
)または良好(‘g’
)という351個の二項反応が含まれています。
负载电离层[n,p] = size(X)
N = 351
P = 34
resp =唯一的(Y)
resp =2 x1细胞{b} {' g '}
レ、ダ、反射が不良(“b”
)と良好(‘g’
)のどらであるかを識別するバナリカネル分類モデルに学習をさせます。あてはめの要約を抽出して,最適化アルゴリズムによりモデルがどの程度適切にデータにあてはめられたかを判断します。
rng (“默认”)%用于再现性[Mdl,FitInfo] = fitckernel(X,Y)
Mdl = ClassificationKernel ResponseName: 'Y' ClassNames: {'b' 'g'}学习者:'svm' NumExpansionDimensions: 2048 KernelScale: 1 Lambda: 0.0028 BoxConstraint: 1属性,方法
FitInfo =带字段的结构:求解器:'LBFGS-fast' LossFunction: 'hinge' Lambda: 0.0028 betatolance: 1.0000 -04 GradientTolerance: 1.0000 -06 ObjectiveValue: 0.2604 GradientMagnitude: 0.0028 RelativeChangeInBeta: 8.2512e-05 FitTime: 0.1089历史:[]
Mdl
はClassificationKernel
モデルです。標本内分類誤差を調べるには,Mdl
と学習デ,タまたは新しいデ,タを関数损失
に渡すことができます。または,Mdl
と新しい予測子デ,タを関数预测
に渡して,新しい観測値のクラスラベルを予測することができます。また,Mdl
と学習デ,タを関数重新开始
に渡して学習を続行することもできます。
FitInfo
は,最適化情報が格納されている構造体配列です。最適化終了時の結果が満足できるものであるかどうかを判断するには,FitInfo
を使用します。
精度を向上させるため,名前と値のペアの引数を使用して,最適化反復の最大回数(“IterationLimit”
)を増やしたり,許容誤差の値(“BetaTolerance”
および“GradientTolerance”
)を小さくすることができます。このようにすると,FitInfo
のObjectiveValue
やRelativeChangeInBeta
などの尺度が向上します。名前と値のペアの引数“OptimizeHyperparameters”
を使用してモデルパラメ,タ,を最適化することもできます。
电离层
デ,タセットを読み込みます。このデタセットには,レダ反射にいての34個の予測子と,不良(“b”
)または良好(‘g’
)という351個の二項反応が含まれています。
负载电离层rng (“默认”)%用于再现性
バ▪▪ナリカ▪▪ネル分類モデルを交差検証します。既定では,10分割交差検証が使用されます。
CVMdl = fitckernel(X,Y,“CrossVal”,“上”)
CVMdl = ClassificationPartitionedKernel CrossValidatedModel: 'Kernel' ResponseName: 'Y' NumObservations: 351 KFold: 10 Partition: [1x1 cvpartition] ClassNames: {'b' 'g'} ScoreTransform: 'none'属性,方法
元素个数(CVMdl.Trained)
Ans = 10
CVMdl
はClassificationPartitionedKernel
モデルです。fitckernel
は10分割交差検証を実施するので,学習分割(分割内)観測値に対して学習をさせる10個のClassificationKernel
モデルがCVMdl
に格納されます。
交差検証分類誤差を推定します。
kfoldLoss (CVMdl)
Ans = 0.0940
分類誤差率は約9%です。
名前と値のペアの引数“OptimizeHyperparameters”
。
电离层
デ,タセットを読み込みます。このデタセットには,レダ反射にいての34個の予測子と,不良(“b”
)または良好(‘g’
)という351個の二項反応が含まれています。
负载电离层
自動的なハイパーパラメーター最適化を使用して,5分割交差検証損失を最小化するハイパーパラメーターを求めます。名前と値のペアの引数“KernelScale”
および“λ”
の最適な値をfitckernel
で求めるため,“OptimizeHyperparameters”
として“汽车”
を指定します。再現性を得るために,乱数シ,ドを設定し,“expected-improvement-plus”
の獲得関数を使用します。
rng (“默认”(Mdl,FitInfo,HyperparameterOptimizationResults] = fitckernel(X,Y,“OptimizeHyperparameters”,“汽车”,...“HyperparameterOptimizationOptions”结构(“AcquisitionFunctionName”,“expected-improvement-plus”))
|=====================================================================================================| | Iter | Eval客观客观| | | BestSoFar | BestSoFar | KernelScaleλ| | | | |结果运行时| | | (estim(观察) .) | | | |=====================================================================================================| | 最好1 | | 0.35897 | 0.79546 | 0.35897 | 0.35897 | 64.836 | 4.4811 e-06 | | 2 |接受| 0.35897 | 0.99103 | 0.35897 | 0.35897 | 0.036335 | 0.015885 || 3 |接受| 0.39601 | 0.948 | 0.35897 | 0.36053 | 0.0022147 | 6.8254 e-06 | | 4 |接受| 0.35897 | 0.61693 | 0.35897 | 0.35898 | 5.1259 | 0.28097 | | 5 |接受| 0.35897 | 0.727 | 0.35897 | 0.35897 | 0.24853 | 0.10828 | | 6 |接受| 0.35897 | 0.43462 | 0.35897 | 0.35897 | 885.09 | 0.00057316 | | 7最好| | 0.10826 | 1.3883 | 0.10826 | 0.10833 | 8.0346 | 0.0048286 | | 8最好| | 0.076923 | 0.81904 | 0.076923 | 0.076999 | 7.0902 | 0.0034068 | | | 9日接受| 0.091168 | 0.88931 | 0.076923 |最好10 0.077059 | 9.1504 | 0.0020604 | | | | 0.062678 | 0.8819 | 0.062678 | 0.062723 | 3.5487 | 0.0025912 | | | 11日接受| 0.062678 | 1.0473 | 0.062678 | 0.062741 | 2.3869 | 0.003321 | | | 12日接受| 0.41026 | 1.2096 | 0.062678 | 0.062536 | 0.14075 | 0.0022499 | | | 13日接受| 0.062678 | 1.1397 | 0.062678 | 0.062532 | 3.4215 | 0.0036803 | | | 14日接受| 0.062678 | 1.2271 | 0.062678 | 0.061956 | 3.2928 | 0.0030533 | |最好15 | | 0.05698 | 1.0805 | 0.05698 | 0.057204 | 5.0598 | 0.0025499 | |16 | Accept | 0.062678 | 1.157 | 0.05698 | 0.057186 | 5.3401 | 0.0015096 | | 17 | Accept | 0.05698 | 0.76967 | 0.05698 | 0.057118 | 1.813 | 0.0069209 | | 18 | Accept | 0.059829 | 0.84812 | 0.05698 | 0.057092 | 1.5122 | 0.0046637 | | 19 | Accept | 0.059829 | 0.76321 | 0.05698 | 0.05718 | 1.9277 | 0.0056364 | | 20 | Accept | 0.065527 | 0.69065 | 0.05698 | 0.057189 | 1.4064 | 0.0094306 | |=====================================================================================================| | Iter | Eval | Objective | Objective | BestSoFar | BestSoFar | KernelScale | Lambda | | | result | | runtime | (observed) | (estim.) | | | |=====================================================================================================| | 21 | Accept | 0.05698 | 0.99541 | 0.05698 | 0.057033 | 5.1719 | 0.0023614 | | 22 | Best | 0.054131 | 1.5818 | 0.054131 | 0.054176 | 1.9618 | 6.5704e-05 | | 23 | Best | 0.042735 | 1.0717 | 0.042735 | 0.042763 | 1.9463 | 1.0169e-05 | | 24 | Accept | 0.082621 | 1.0798 | 0.042735 | 0.042775 | 1.0661 | 1.3245e-05 | | 25 | Accept | 0.054131 | 1.6876 | 0.042735 | 0.042789 | 3.288 | 2.0035e-05 | | 26 | Accept | 0.062678 | 1.1373 | 0.042735 | 0.042769 | 2.657 | 3.0334e-06 | | 27 | Accept | 0.059829 | 1.4655 | 0.042735 | 0.043054 | 2.0381 | 1.9791e-05 | | 28 | Accept | 0.042735 | 1.8019 | 0.042735 | 0.042764 | 3.5043 | 0.0001237 | | 29 | Accept | 0.054131 | 0.85401 | 0.042735 | 0.042764 | 1.3897 | 3.2288e-06 | | 30 | Accept | 0.062678 | 1.5927 | 0.042735 | 0.042792 | 2.2414 | 0.0002259 |
__________________________________________________________ 优化完成。最大目标达到30个。总函数评估:30总运行时间:73.1172秒总目标函数评估时间:31.6922最佳观测可行点:KernelScale Lambda ___________ __________ 1.9463 1.0169e-05观测目标函数值= 0.042735估计目标函数值= 0.043106函数评估时间= 1.0717最佳估计可行点(根据模型):KernelScale Lambda ___________ _________ 3.5043 0.0001237估计目标函数值= 0.042792估计函数评估时间= 1.6553
Mdl = ClassificationKernel ResponseName: 'Y' ClassNames: {'b' 'g'} Learner: 'svm' NumExpansionDimensions: 2048 KernelScale: 3.5043 Lambda: 1.2370e-04 BoxConstraint: 23.0320属性,方法
FitInfo =带字段的结构:求解器:'LBFGS-fast' LossFunction: 'hinge' Lambda: 1.2370e-04 BetaTolerance: 1.0000 -04 GradientTolerance: 1.0000 -06 ObjectiveValue: 0.0426 GradientMagnitude: 0.0028 RelativeChangeInBeta: 8.9154e-05 FitTime: 0.3122历史:[]
HyperparameterOptimizationResults = BayesianOptimization with properties: ObjectiveFcn: @createObjFcn/inMemoryObjFcn variabledescription: [4x1 optimizableVariable] Options: [1x1 struct] MinObjective: 0.0427 XAtMinObjective: [1x2 table] minestimatedobjobjective: 0.0428 xatminestimatedobjobjective: [1x2 table] numobjectiveevalues: 30 TotalElapsedTime: 73.1172 NextPoint: [1x2 table] XTrace: [30x2 table] ObjectiveTrace: [30x1 double] ConstraintsTrace: [] UserDataTrace:{30x1 cell} ObjectiveEvaluationTimeTrace: [30x1 double] IterationTimeTrace: [30x1 double] ErrorTrace: [30x1 double]可行性trace: [30x1 logical]可行性probabilitytrace: [30x1 double] IndexOfMinimumTrace: [30x1 double] objectivminimumtrace: [30x1 double] estimatedobjectivminimumtrace: [30x1 double]
ビッグデ,タの場合,最適化手順に時間がかかる可能性があります。最適化手順を実行するにはデータセットが大きすぎる場合,データの一部だけを使用してパラメーターの最適化を試すことができます。関数datasample
を使用し,“替换”,“假”
を指定して,デ,タを非復元抽出します。
X
- - - - - -予測子デ,タY
- - - - - -クラスラベルクラスラベル。绝对配列,文字配列,弦配列,逻辑ベクトル,数値ベクトル,または文字ベクトルの细胞配列を指定します。
fitckernel
はバ▪▪ナリ分類のみをサポ▪▪トします。Y
に正確に2の異なるクラスを含めるか,名前と値のペアの引数一会
を使用して学習用の2のクラスを指定しなければなりません。
Y
が文字配列の場合,各要素は配列の1の行に対応しなければなりません。
Y
の長さはX
または资源描述
の観測値の数と等しくなければなりません。
名前と値のペアの引数一会
を使用してクラスの順序を指定することをお勧めします。
デ,タ型:分类
|字符
|字符串
|逻辑
|单
|双
|细胞
资源描述
- - - - - -標本デ,タモデルを学習させるために使用する標本デ,タ。テ,ブルとして指定します。资源描述
の各行は1の観測値に,各列は1。オプションとして,资源描述
に応答変数用の列を1追加できます。文字ベクトルのcell配列ではない cell 配列と複数列の変数は使用できません。
资源描述
に応答変数が含まれている場合に资源描述
内の他の変数をすべて予測子として使用するには,ResponseVarName
を使用して応答変数を指定します。
资源描述
に応答変数が含まれている場合に资源描述
内の他の変数の一部のみを予測子として使用するには,公式
を使用して式を指定します。
资源描述
に応答変数が含まれていない場合は,Y
を使用して応答変数を指定します。応答変数の長さと资源描述
の行数は等しくなければなりません。
デ,タ型:表格
ResponseVarName
- - - - - -応答変数名资源描述
内の変数の名前応答変数の名前。资源描述
内の変数の名前で指定します。
ResponseVarName
には文字ベクトルまたは字符串スカラ,を指定しなければなりません。たとえば,応答変数Y
が资源描述。Y
として格納されている場合,“Y”
として指定します。それ以外の場合,モデルを学習させるときに、资源描述
の列はY
を含めてすべて予測子として扱われます。
応答変数は,绝对配列,文字配列,字符串配列,逻辑ベクトル,数値ベクトル,または文字ベクトルの细胞配列でなければなりません。Y
が文字配列である場合,応答変数の各要素は配列の1の行に対応しなければなりません。
名前と値の引数一会
を使用してクラスの順序を指定することをお勧めします。
デ,タ型:字符
|字符串
公式
- - - - - -応答変数および予測子変数サブセットの説明モデル応答変数および予測子変数サブセットの説明モデル。“Y ~ x1 + x2 + x3”
という形式の文字ベクトルまたは字符串スカラ,を指定します。この形式では,Y
は応答変数を,x1
、x2
およびx3
は予測子変数を表します。
モデルに学習をさせるための予測子として资源描述
内の変数のサブセットを指定するには,式を使用します。式を指定した場合,公式
に現れない资源描述
内の変数は使用されません。
式の変数名は资源描述
の変数名(Tbl.Properties.VariableNames
)であり,有効なmatlab®識別子でなければなりません。関数isvarname
を使用して资源描述
の変数名を検証できます。変数名が有効でない場合,関数matlab.lang.makeValidName
を使用してそれらを変換できます。
デ,タ型:字符
|字符串
メモ
ソフトウェアは,南
,空の文字ベクトル(”
),空のstring (""
)、< >失踪
,および<定义>
の要素を欠損値として扱い,以下のいずれかの特性をも観測値を削除します。
応答変数の欠損値
予測子の観測値(X
または资源描述
の行)内の少なくとも1の欠損値
重み(“重量”
)が南
値または0
オプションの名称,值
引数のコンマ区切りペアを指定します。名字
は引数名で,价值
は対応する値です。名字
は引用符で囲まなければなりません。Name1, Value1,…,的家
のように,複数の名前と値のペアの引数を,任意の順番で指定できます。
Mdl = fitckernel(X,Y,'Learner','logistic','NumExpansionDimensions',2^15,'KernelScale','auto')
は,ヒューリスティック手法により選択されたカーネルスケールパラメーターによる特徴量拡張を使用して,予測子データを2 ^ 15
次元空間にマッピングした後,ロジスティック回帰を実施します。
メモ
交差検証の名前と値のペアの引数を名前と値のペアの引数“OptimizeHyperparameters”
と同時に使用することはできません。“OptimizeHyperparameters”
の場合の交差検証は,名前と値のペアの引数“HyperparameterOptimizationOptions”
を使用することのみによって変更できます。
学习者
- - - - - -線形分類モデルのタ@ @プ“支持向量机”
(既定値) |“物流”
線形分類モデルのタ@ @プ。“学习者”
と“支持向量机”
または“物流”
から構成されるコンマ区切りのペアとして指定します。
次の表では です。
Xはp個の予測子変数による観測値(行ベクトル)です。
は特徴量を拡張するための観測値(行ベクトル)の変換です。T (x)は のxを高次元空間( )にマッピングします。
βはm個の係数のベクトルです。
Bはスカラバアスです。
値 | アルゴリズム | 応答の範囲 | 損失関数 |
---|---|---|---|
“支持向量机” |
サポ,トベクタ,マシン | Y∊{- 1,1}。陽性クラスの場合は1,それ以外の場合は-1 | ヒンジ: |
“物流” |
ロジスティック回帰 | “支持向量机” と同じ |
逸脱度(ロジスティック): |
例:“学习者”,“物流”
NumExpansionDimensions
- - - - - -拡張空間の次元数“汽车”
(既定値) |正の整数拡張空間の次元数。“NumExpansionDimensions”
と“汽车”
または正の整数から構成されるコンマ区切りのペアとして指定します。“汽车”
の場合,関数fitckernel
は2 . ^装天花板(最低(log2 (p) + 5、15))
を使用して次元数を選択します。p
は予測子の個数です。
詳細にいては,ランダムな特徴量拡張を参照してください。
例:“NumExpansionDimensions”、2 ^ 15
デ,タ型:字符
|字符串
|单
|双
KernelScale
- - - - - -カネルスケルパラメタ1
(既定値) |“汽车”
|正のスカラカネルスケルパラメタ。“KernelScale”
と,“汽车”
または正のスカラ,で構成される,コンマ区切りのペアとして指定します。カネルスケルパラメタを使用して,ランダムな特徴量拡張用のランダムな基底が取得されます。詳細については、ランダムな特徴量拡張を参照してください。
“汽车”
を指定した場合,ヒューリスティック手法を使用して適切なカーネルスケールパラメーターが選択されます。このヒューリスティック手法では副標本抽出を使用するので,呼び出すたびに推定値が変化する可能性があります。このため,結果を再現するには,学習の前にrng
を使用して乱数シ,ドを設定します。
例:“KernelScale”、“汽车”
デ,タ型:字符
|字符串
|单
|双
BoxConstraint
- - - - - -ボックス制約ボックス制約。“BoxConstraint”
と正のスカラ,で構成されるコンマ区切りペアとして指定します。
この引数は,“学习者”
が“支持向量机”
(既定値)であり,正則化項の強度“λ”
の値を指定しなかった場合のみ有効です。ボックス制約(C) と正則化項の強度 (λ) にはC = 1/(λn)という関係があるので,“BoxConstraint”
または“λ”
のいずれかを指定できます。Nは観測値の個数です。
例:“BoxConstraint”,100年
デ,タ型:单
|双
λ
- - - - - -正則化項の強度“汽车”
(既定値) |非負のスカラ正則化項の強度。“λ”
と“汽车”
または非負のスカラ,から構成されるコンマ区切りのペアとして指定します。
“汽车”
の場合,“λ”
の値は1/nです。nは観測値の個数です。
ボックス制約(c)と正則化項の強度(λ)にはC = 1/(λn)という関係があるので,“BoxConstraint”
または“λ”
のいずれかを指定できます。
例:“λ”,0.01
デ,タ型:字符
|字符串
|单
|双
CrossVal
- - - - - -交差検証分類器を学習させるためのフラグ“关闭”
(既定値) |“上”
交差検証分類器を学習させるためのフラグ。“Crossval”
と“上”
または“关闭”
で構成されるコンマ区切りのペアとして指定します。
“上”
を指定すると,10の分割を使用して交差検証分類器の学習が実行されます。
名前と値のペアの引数CVPartition
、坚持
、KFold
またはLeaveout
を使用すると,この交差検証の設定を変更できます。交差検証済みモデルを作成するときに使用できる交差検証の名前と値のペアの引数は,一度に1つだけです。
例:“Crossval”,“上”
CVPartition
- - - - - -交差検証分割[]
(既定値) |cvpartition
分割オブジェクト交差検証分割。cvpartition
で作成したcvpartition
分割オブジェクトとして指定します。分割オブジェクトは,交差検証のタイプと、学習セットおよび検証セットのインデックス付けを指定します。
交差検証済みモデルの作成で指定できる名前と値の引数は,CVPartition
、坚持
、KFold
、Leaveout
の4。
例:cvp = cvpartition(500,'KFold',5)
を使用して,500個の観測値に対する5分割交差検証にいて無作為な分割を作成するとします。この場合,“CVPartition”,本量利
を使用して交差検証済みモデルを指定できます。
坚持
- - - - - -ホ,ルドアウト検証の対象デ,タの比率ホ,ルドアウト検証に使用されるデ,タの比率.(0,1)の範囲のスカラ,値として指定します. (0,1)‘坚持’,p
を指定した場合,以下の手順が実行されます。
p * 100
%のデ,タを無作為に選択して検証デ,タとして確保し,残りのデ,タを使用してモデルに学習をさせる。
コンパクトな学習済みモデルを交差検証済みモデルの训练有素的
プロパティに格納する。
交差検証済みモデルの作成で指定できる名前と値の引数は,CVPartition
、坚持
、KFold
、Leaveout
の4。
例:“坚持”,0.1
デ,タ型:双
|单
KFold
- - - - - -分割の数10
(既定値) |1より大きい正の整数値交差検証済みモデルで使用する分割の数。1より大きい正の整数値として指定します。KFold, k
を指定した場合,以下の手順が実行されます。
デ,タを無作為にk
個のセットに分割する。
各セットにいて,そのセットを検定デタとして確保し,他のk
- 1個のセットを使用してモデルに学習をさせる。
k
個のコンパクトな学習済みモデルを,交差検証済みモデルの训练有素的
プロパティに含まれているk
行1列のcellベクトルに格納する。
交差検証済みモデルの作成で指定できる名前と値の引数は,CVPartition
、坚持
、KFold
、Leaveout
の4。
例:“KFold”,5
デ,タ型:单
|双
Leaveout
- - - - - -放过一个法の交差検証のフラグ“关闭”
(既定値) |“上”
放过一个法の交差検証のフラグ。“Leaveout”
と“上”
または“关闭”
で構成されるコンマ区切りのペアとして指定します。“Leaveout”,“上”
を指定した場合,n個の観測値(nは欠損観測値を除外した観測値の個数)のそれぞれについて以下の手順が実行されます。
その観測値を検証デ,タとして確保し,他のn - 1個の観測値を使用してモデルに学習をさせる。
N個のコンパクトな学習済みモデルを,交差検証済みモデルの训练有素的
プロパティに含まれているn行1列のcellベクトルのセルに格納する。
交差検証済みモデルの作成に使用できる名前と値のペアの引数は,CVPartition
、坚持
、KFold
、Leaveout
の4。
例:“Leaveout”,“上”
BetaTolerance
- - - - - -線形係数およびバ@ @アス項の相対許容誤差1 e-5
(既定値) |非負のスカラ線形係数およびバ▪▪アス項(切片)▪▪の相対許容誤差。“BetaTolerance”
と非負のスカラ,から構成されるコンマ区切りのペアとして指定します。
であるとします。これは,最適化反復tにおける係数およびバreeアス項のベクトルです。 で最適化が終了します。
GradientTolerance
も指定した場合,いずれかの終了条件が満たされると最適化が終了します。
例:e-6 BetaTolerance, 1
デ,タ型:单
|双
GradientTolerance
- - - - - -勾配の絶対許容誤差1 e-6
(既定値) |非負のスカラ勾配の絶対許容誤差。“GradientTolerance”
と非負のスカラ,から構成されるコンマ区切りのペアとして指定します。
最適化反復tにおける係数およびバescアス項に関する目的関数の勾配ベクトルを とします。 で最適化が終了します。
BetaTolerance
も指定した場合,いずれかの終了条件が満たされると最適化が終了します。
例:e-5 GradientTolerance, 1
デ,タ型:单
|双
IterationLimit
- - - - - -最適化反復の最大回数最適化反復の最大回数。“IterationLimit”
と正の整数から構成されるコンマ区切りのペアとして指定します。
名前と値のペアの引数BlockSize
で指定されたメモリに変換後のデ,タが収まる場合,既定値は1000です。それ以外の場合,既定値は100です。
例:“IterationLimit”,500年
デ,タ型:单
|双
BlockSize
- - - - - -割り当てられたメモリの最大容量4 e ^ 3
(4 GB)(既定値) |正のスカラ割り当てられたメモリの最大容量(メガバaapl .ト)。“BlockSize”
と正のスカラ,から構成されるコンマ区切りのペアとして指定します。
変換後の予測子デ,タを保持するためにfitckernel
で必要となるメモリが“BlockSize”
の値より多い場合,ブロック単位方式が使用されます。ブロック単位方式の詳細にいては,アルゴリズムを参照してください。
例:e4 BlockSize, 1
デ,タ型:单
|双
RandomStream
- - - - - -乱数ストリ,ムデ,タ変換の再現性を得るための乱数ストリ,ム。“RandomStream”
と乱数ストリ,ムオブジェクトから構成されるコンマ区切りのペアとして指定します。詳細にいては,ランダムな特徴量拡張を参照してください。
予測子デ,タを高次元空間に変換するためにfitckernel
が使用するランダムな基底関数を再現するには,“RandomStream”
を使用します。詳細は,RandStreamを使用したグロ,バルストリ,ムの管理と乱数ストリ,ムの作成と管理を参照してください。
例:RandomStream, RandStream(“mlfg6331_64”)
HessianHistorySize
- - - - - -ヘッセ近似の履歴バッファのサズ15
(既定値) |正の整数ヘッセ近似の履歴バッファのサズ。“HessianHistorySize”
と正の整数から構成されるコンマ区切りのペアとして指定します。各反復において,fitckernel
は最新のHessianHistorySize
回の反復の統計量を使用してヘッセ近似を構成します。
例:“HessianHistorySize”,10
デ,タ型:单
|双
详细的
- - - - - -詳細レベル0
(既定値) |1
詳細レベル。“详细”
と0
または1
のいずれかから構成されるコンマ区切りのペアとして指定します。详细的
は,コマンドラ。
値 | 説明 |
---|---|
0 |
fitckernel は診断情報を表示しません。 |
1 |
fitckernel は,目的関数の値や勾配の大きさなどの診断情報を表示および格納します。診断情報はFitInfo。历史 に格納されます。 |
例:“详细”,1
デ,タ型:单
|双
CategoricalPredictors
- - - - - -カテゴリカル予測子のリスト“所有”
カテゴリカル予測子のリスト。次の表のいずれかの値として指定します。
値 | 説明 |
---|---|
正の整数のベクトル | ベクトルの各エントリは,カテゴリカル変数が含まれている予測子データの列に対応するインデックス値です。ンデックス値の範囲は1 ~
|
逻辑ベクトル |
|
文字行列 | 行列の各行は予測子変数の名前です。名前はPredictorNames のエントリに一致しなくてはなりません。文字行列の各行が同じ長さになるように、名前を余分な空白で埋めてください。 |
文字ベクトルのcell配列または字符串配列 | 配列の各要素は予測子変数の名前です。名前はPredictorNames のエントリに一致しなくてはなりません。 |
“所有” |
すべての予測子がカテゴリカルです。 |
既定では,予測子デ,タがテ,ブル(资源描述
)内にある場合,fitckernel
は,その変数が逻辑ベクトル,直言ベクトル,文字配列,字符串配列または文字ベクトルの细胞配列のいずれかである場合に,変数を直言であると見なします。予測子デタが行列(X
)である場合,fitckernel
はすべての予測子が連続的であると見なします。他の予測子をカテゴリカル予測子として指定するには,名前と値の引数“CategoricalPredictors”
を使用してそれらを指定します。
特定されたカテゴリカル予測子に対して,fitckernel
はカテゴリカル変数に順序が設定されていないか順序が設定されているかに応じて,2つの異なる方式を使用してダミー変数を作成します。順序付けのないカテゴリカル変数の場合,fitckernel
は,そのカテゴリカル変数の各レベルにいて1ず。順序付けされたカテゴリカル変数の場合,fitckernel
は,カテゴリの数よりも1少ないダミ変数を作成します。詳細にいては,ダミ,変数の自動作成を参照してください。
例:“CategoricalPredictors”、“所有”
デ,タ型:单
|双
|逻辑
|字符
|字符串
|细胞
一会
- - - - - -学習に使用するクラスの名前学習に使用するクラスの名前。分类配列、文字配列、string 配列、logical ベクトル、数値ベクトル、または文字ベクトルの cell 配列として指定します。一会
のデ,タ型は资源描述
内の応答変数またはY
と同じでなければなりません。
一会
が文字配列の場合,各要素は配列の1の行に対応しなければなりません。
一会
の使用目的は次のとおりです。
学習時のクラスの順序を指定する。
クラスの順序に対応する入力または出力引数の次元の順序を指定する。たとえば,成本
の次元の順序や预测
によって返される分類スコアの列の順序を指定するために一会
を使用します。
学習用にクラスのサブセットを選択する。たとえば,Y
に含まれているすべての異なるクラス名の集合が{' a ', ' b ', ' c '}
であるとします。クラス“一个”
および“c”
のみの観測値を使用してモデルに学習をさせるには,“类名”,{' a ', ' c '}
を指定します。
一会
の既定値は,资源描述
内の応答変数またはY
に含まれているすべての異なるクラス名の集合です。
例:“类名”,{' b ', ' g '}
デ,タ型:分类
|字符
|字符串
|逻辑
|单
|双
|细胞
成本
- - - - - -誤分類のコスト誤分類のコスト。“成本”
と正方行列または構造体から構成されるコンマ区切りペアとして指定します。
成本
の既定値は(
です。K
) -眼睛(K
)K
は異なるクラスの個数です。
fitckernel
は成本
を使用して,之前
で指定されたクラスの事前確率を調整します。その後,fitckernel
は調整した事前確率を学習に使用し,コスト行列を既定設定にリセットします。
例:“成本”,[0 2;1 0]
デ,タ型:单
|双
|结构体
PredictorNames
- - - - - -予測子変数名予測子変数名。一意な名前の字符串配列または一意な文字ベクトルの单元格配列として指定します。PredictorNames
の機能は,学習デ,タの提供方法によって決まります。
X
とY
を指定した場合,PredictorNames
を使用してX
内の予測子変数に名前を割り当てることができます。
PredictorNames
内の名前の順序は,X
の列の順序に一致しなければなりません。まり,PredictorNames {1}
はX (: 1)
の名前,PredictorNames {2}
はX (:, 2)
の名前であり,他も同様です。また,大小(X, 2)
と元素个数(PredictorNames)
は等しくなければなりません。
既定ではPredictorNames
は{x1, x2,…}
です。
资源描述
を指定する場合,PredictorNames
を使用して学習に使用する予測子変数を選択できます。まり,fitckernel
は,学習中にPredictorNames
の予測子変数と応答変数のみを使用します。
PredictorNames
はTbl.Properties.VariableNames
のサブセットでなければならず,応答変数の名前を含めることはできません。
既定では,すべての予測子変数の名前がPredictorNames
に格納されます。
“PredictorNames”
と公式
の両方ではなく,いずれか一方を使用して学習用の予測子を指定することをお勧めします。
例:PredictorNames,{‘SepalLength’,‘SepalWidth’,‘PetalLength’,‘PetalWidth}
デ,タ型:字符串
|细胞
之前
- - - - - -事前確率“经验”
(既定値) |“统一”
|数値ベクトル|構造体配列各クラスの事前確率。“之前”
と“经验”
、“统一”
,数値ベクトルまたは構造体配列から構成されるコンマ区切りのペアとして指定します。
次の表は,事前確率の設定に使用できるオプションの一覧です。
値 | 説明 |
---|---|
“经验” |
クラスの事前確率は,Y のクラスの相対的頻度です。 |
“统一” |
クラスの事前確率はいずれも1/ .K (K はクラス数)となります。 |
数値ベクトル | 各要素はクラスの事前確率です。Y 内の順序に従って要素の順序を指定します。名前と値のペアの引数“类名” を使用して順序を指定した場合は,それに従って要素の順序が設定されます。 |
構造体配列 | 構造体
|
fitckernel
は,合計が1になるように之前
の事前確率を正規化します。
例:“之前”,结构(“类名”,{{“setosa”、“癣”}},ClassProbs, 1:2)
デ,タ型:字符
|字符串
|双
|单
|结构体
ResponseName
- - - - - -応答変数名“Y”
(既定値) |文字ベクトル|字符串スカラ応答変数名。文字ベクトルまたは字符串スカラ,として指定します。
Y
を指定した場合,“ResponseName”
を使用して応答変数の名前を指定できます。
ResponseVarName
または公式
を指定した場合,“ResponseName”
を使用することはできません。
例:“ResponseName”、“响应”
デ,タ型:字符
|字符串
ScoreTransform
- - - - - -スコア変換“没有”
(既定値) |“doublelogit”
|“invlogit”
|“ismax”
|分对数的
|関数ハンドル|……スコア変換。文字ベクトル,字符串スカラ,または関数ハンドルとして指定します。
次の表は,使用可能な文字ベクトルおよび字符串スカラ,をまとめています。
値 | 説明 |
---|---|
“doublelogit” |
1/(1 + e2 x) |
“invlogit” |
Log (x / (1 - x)) |
“ismax” |
最大のスコアをも1 0 |
分对数的 |
1/(1 + e- x) |
“没有” または“身份” |
X(変換なし) |
“标志” |
X < 0のとき-1 X = 0のとき0 X > 0のとき |
“对称” |
2x - 1 |
“symmetricismax” |
最大のスコアをも1に設定し,他のすべてのクラスのスコアを-1に設定する |
“symmetriclogit” |
2/(1 + e- x) - 1 |
Matlab関数またはユ,ザ,定義関数の場合は,スコア変換用の関数ハンドルを使用します。関数ハンドルは,行列 (元のスコア) を受け入れて同じサイズの行列 (変換したスコア) を返さなければなりません。
例:“ScoreTransform”、“分对数的
デ,タ型:字符
|字符串
|function_handle
权重
- - - - - -観測値の重み资源描述
内の変数の名前観測値の重み。非負の数値ベクトルまたは资源描述
内の変数の名前を指定します。ソフトウェアは,X
または资源描述
の各観測値に,权重
の対応する値で重みを付けます。权重
の長さは,X
または资源描述
の観測値の数と等しくなければなりません。
入力デ,タをテ,ブル资源描述
として指定した場合,权重
は数値ベクトルが含まれている资源描述
内の変数の名前にすることができます。この場合,权重
には文字ベクトルまたは字符串スカラ,を指定しなければなりません。たとえば,重みベクトルW
が资源描述。W
として格納されている場合,' W '
として指定します。それ以外の場合,モデルに学習をさせるときに、资源描述
の列はW
を含めてすべて予測子または応答変数として扱われます。
既定の設定では,权重
は的(n, 1)
です。n
はX
または资源描述
の観測値数です。
合計が各クラスの事前確率の値と等しくなるように权重
が正規化されます。
デ,タ型:单
|双
|字符
|字符串
OptimizeHyperparameters
- - - - - -最適化するパラメタ“没有”
(既定値) |“汽车”
|“所有”
|使用可能パラメ,タ,名のstring配列またはcell配列|optimizableVariable
オブジェクトのベクトル最適化するパラメタ。“OptimizeHyperparameters”
と次のいずれかの値から構成されるコンマ区切りのペアとして指定します。
“没有”
-最適化を行いません。
“汽车”
- - - - - -{“KernelScale”、“λ”}
を使用します。
“所有”
—すべての使用可能パラメタを最適化します。
使用可能パラメ,タ,名のcell配列。
optimizableVariable
オブジェクトのベクトル。通常はhyperparameters
の出力です。
最適化では,パラメ,タ,を変化させることにより,fitckernel
の交差検証損失(誤差)を最小化しようとします。交差検証のタesc escプおよびその他の最適化の側面を制御するには,名前と値のペアの引数HyperparameterOptimizationOptions
を使用します。
メモ
“OptimizeHyperparameters”
の値は,他の名前と値のペアの引数を使用して設定した値より優先されます。たとえば,“OptimizeHyperparameters”
を“汽车”
に設定すると,“汽车”
の値が適用されます。
fitckernel
では,以下のパラメ,タ,を使用できます。
KernelScale
- - - - - -fitckernel
は,既定では範囲(1 e - 3, 1 e3)
の対数スケ,ルで,正の値を探索します。
λ
- - - - - -fitckernel
は,既定では範囲(1 e - 3, 1 e3) / n
の対数スケ,ルで,正の値を探索します。n
は観測値の個数です。
学习者
- - - - - -fitckernel
は“支持向量机”
と“物流”
で探索します。
NumExpansionDimensions
- - - - - -fitckernel
は,既定では範囲(100、10000)
の対数スケ,ルで,正の整数を探索します。
既定以外のパラメ,タ,を設定するには,既定以外の値が含まれているoptimizableVariable
オブジェクトのベクトルを渡します。以下に例を示します。
负载fisheririsParams =超参数(“fitckernel”量,物种);参数(2)。Range = [1e-4,1e6];
“OptimizeHyperparameters”
の値として参数个数
を渡します。
既定では,コマンドラインに反復表示が表示され,最適化のハイパーパラメーターの個数に従ってプロットが表示されます。最適化とプロットにおける目的関数は,回帰の場合はLog(1 +交叉验证损失),分類の場合は誤分類率です。反復表示を制御するには,名前と値のペアの引数“HyperparameterOptimizationOptions”
の详细的
フィ,ルドを設定します。プロットを制御するには,名前と値のペアの引数“HyperparameterOptimizationOptions”
のShowPlots
フィ,ルドを設定します。
たとえば,カ,ネル分類器の最適化を参照してください。
例:“OptimizeHyperparameters”、“汽车”
HyperparameterOptimizationOptions
- - - - - -最適化のオプション最適化のオプション。“HyperparameterOptimizationOptions”
と構造体から構成されるコンマ区切りのペアとして指定します。この引数を指定すると,名前と値のペアの引数OptimizeHyperparameters
の効果が変化します。この構造体のフィ,ルドは,すべてオプションです。
フィ,ルド名 | 値 | 既定の設定 |
---|---|---|
优化器 |
|
“bayesopt” |
AcquisitionFunctionName |
オブジェクト関数のランタesc escムによって最適化が異なるので,名前に |
“expected-improvement-per-second-plus” |
MaxObjectiveEvaluations |
目的関数評価の最大数。 | “bayesopt” または“randomsearch” の場合は30. 、“gridsearch” の場合はグリッド全体 |
MaxTime |
制限時間。正の実数を指定します。制限時間の単位は, |
正 |
NumGridDivisions |
“gridsearch” における各次元の値の個数。値は、各次元の値の個数を表す正の整数のベクトル、またはすべての次元に適用されるスカラーが可能です。カテゴリカル変数の場合、このフィールドは無視されます。 |
10 |
ShowPlots |
プロットを表示するかどうかを示す論理値。真正的 の場合,最良の目的関数の値が反復回数に対してプロットされます。1,优化器 が“bayesopt” である場合,ShowPlots はパラメ,タ,に対する目的関数のモデルのプロットも行います。 |
真正的 |
SaveIntermediateResults |
优化器 が“bayesopt” である場合に結果を保存するかどうかを示す論理値。真正的 の場合,“BayesoptResults” という名前のワ,クスペ,ス変数が反復ごとに上書きされます。この変数はBayesianOptimization オブジェクトです。 |
假 |
详细的 |
コマンドラ@ @ンへの表示。
詳細にいては, |
1 |
UseParallel |
ベ@ @ズ最適化を並列実行するかどうかを示す論理値。並列実行には并行计算工具箱™が必要です。並列でのタイミングに再現性がないため,並列ベイズ最適化で再現性のある結果が生成されるとは限りません。詳細にいては,並列ベ@ @ズ最適化を参照してください。 | 假 |
重新分区 |
反復ごとに交差検証を再分割するかどうかを示す論理値。 分割ノesc escズが考慮されるので,通常は |
假 |
以下の3のフィルド名は1だけ使用できます。 | ||
CVPartition |
cvpartition によって作成されるcvpartition オブジェクト。 |
交差検証フィ,ルドが指定されていない場合“Kfold”,5 |
坚持 |
ホ,ルドアウトの比率を表す範囲(0,1) のスカラ。 |
|
Kfold |
1より大きい整数。 |
例:“HyperparameterOptimizationOptions”、结构(MaxObjectiveEvaluations, 60)
デ,タ型:结构体
Mdl
—学習済みのカネル分類モデルClassificationKernel
モデルオブジェクト|ClassificationPartitionedKernel
交差検証済みモデルオブジェクト学習済みのカ,ネル分類モデル。ClassificationKernel
モデルオブジェクトまたはClassificationPartitionedKernel
交差検証済みモデルオブジェクトとして返されます。
以下の各名前と値のペアの引数のいずれかを設定する場合,Mdl
はClassificationPartitionedKernel
交差検証分類器となります。CrossVal
、CVPartition
、坚持
、KFold
またはLeaveout
。それ以外の場合,Mdl
はClassificationKernel
分類器です。
Mdl
のプロパティを参照するには,ドット表記を使用します。たとえば,拡張空間の次元数を表示するには、コマンド ウィンドウでMdl。NumExpansionDimensions
と入力します。
メモ
他の分類モデルとは異なり,メモリ消費を節約するため,学習データや学習過程の詳細(収束履歴など)はClassificationKernel
モデルオブジェクトに格納されません。
FitInfo
-最適化の詳細最適化の詳細。次の表に記載されているフィ,ルドを含む構造体配列として返されます。これらのフィ,ルドには,最終的な値または名前と値のペアの引数の指定が格納されます。
フィ,ルド | 説明 |
---|---|
解算器 |
目的関数の最小化手法: |
LossFunction |
損失関数。線形分類モデルのタ@ @プに応じて“枢纽” または分对数的 。学习者 を参照してください。 |
λ |
正則化項の強度。λ を参照してください。 |
BetaTolerance |
線形係数およびバ@ @アス項の相対許容誤差。BetaTolerance を参照してください。 |
GradientTolerance |
勾配の絶対許容誤差。GradientTolerance を参照してください。 |
ObjectiveValue |
最適化終了時の目的関数の値。分類損失と正則化項を加算することにより目的関数が構成されます。 |
GradientMagnitude |
最適化終了時における目的関数の勾配ベクトルの無限大ノルム。GradientTolerance を参照してください。 |
RelativeChangeInBeta |
最適化終了時の線形係数およびバ@ @アス項の相対的な変化。BetaTolerance を参照してください。 |
FitTime |
モデルをデ,タにあてはめるためにかかった経過実時間(秒単位)。 |
历史 |
最適化情報の履歴。“详细”,0 を指定した場合,このフィ,ルドは空([] )になります。詳細にいては,详细的 とアルゴリズムを参照してください。 |
フィ,ルドにアクセスするには,ドット表記を使用します。たとえば,各反復における目的関数値のベクトルにアクセスするには、コマンド ウィンドウでFitInfo。ObjectiveValue
と入力します。
FitInfo
を確認して,収束が満足できるものであるかどうかを評価することをお勧めします。
HyperparameterOptimizationResults
—ハパパラメタの交差検証最適化BayesianOptimization
オブジェクト|ハパパラメタおよび関連する値のテブルハパパラメタの交差検証最適化。ハパパラメタおよび関連する値が含まれている表またはBayesianOptimization
オブジェクトとして返されます。“OptimizeHyperparameters”
の値が“没有”
ではない場合,出力は空以外です。出力値は,名前と値のペアの引数“HyperparameterOptimizationOptions”
の优化器
フィ,ルドの値に依存します。
优化器 フィ,ルドの値 |
HyperparameterOptimizationResults の値 |
---|---|
“bayesopt” (既定の設定) |
BayesianOptimization クラスのオブジェクト |
“gridsearch” または“randomsearch” |
使用したハイパーパラメーター,観測された目的関数の値(交差検証損失),および最低(最良)から最高(最悪)までの観測値の順位が格納されているテーブル |
fitckernel
は,決定関数
の確定に使用される係数のベクトルベータ(β)とバイアス項(b)の初期条件を受け入れません。
fitckernel
は,標準化をサポ,トしません。
随机厨房水槽[1]や快餐[2]などのランダムな特徴量拡張は,ビッグデータに使用するカーネル分類アルゴリズムの近似ガウスカーネルを計算効率が高い方法で求めるための手法です。ランダムな特徴量拡張は,大規模な学習セットが含まれているビッグ データ事例に対する方が現実的ですが、メモリに収まる小規模なデータセットにも適用できます。
カーネル分類アルゴリズムでは,特徴量を高次元空間にマッピングした後で,データを2つのクラスに分離する最適な超平面を求めます。低次元空間で線形不可分な非線形の特徴量は,拡張された高次元空間で可分にできます。超平面分類にいてのすべての計算では,ドット積のみを使用します。非線形分類モデルは,ドット積x1x2'を非線形カ,ネル関数 に置き換えることにより取得できます。ここで,x我は我番目の観測値(行ベクトル),φ(x我)はx我を高次元空間にマッピングする変換(“カ,ネルトリック”と呼ばれます)です。しかし,(nが大きい)大規模なデタセットでは,観測値の各ペアにいてG (x1, x2)(グラム行列)を評価すると計算コストが高くなります。
ランダムな特徴量拡張の方式では,ドット積がガウスカ,ネルを近似するようなランダム変換を求めます。まり,次のようになります。
ここで,T (x)は におけるxを高次元空間( )にマッピングします。随机厨房水槽方式では,次のランダムな変換を使用します。
ここで,
は
から抽出した標本,σ2はカ,ネルスケ,ルです。この方式ではO(议员)の計算および格納が必要です。快餐的方式では,ガウススケーリング行列と組み合わせたアダマール行列を使用して,Zの代わりに別のランダムな基底Vを導入します。このランダムな基底により,計算コストがO (m日志
p)に,ストレ,ジがO (m)に削減されます。
関数fitckernel
は,ランダムな特徴量拡張に快餐方式を使用し,線形分類を使用してガウスカーネル分類モデルに学習をさせます。関数fitcsvm
のソルバ,ではn行n列のグラム行列の計算が必要ですが,fitckernel
のソルバ,に必要なのは,n行m列の行列の形成だけです。ビッグデタの場合は一般にmがnよりはるかに小さくなります。
ボックス制約は,マージンに違反している観測値に課せられる最大ペナルティを制御するパラメーターであり,過適合の防止(正則化)に役立ちます。ボックス制約の値を大きくすると,学習時間が長くなる場合があります。
ボックス制約(c)と正則化項の強度(λ)にはC = 1/(λn)という関係があります。nは観測値の個数です。
fitckernel
は,メモリ制限Broyden-Fletcher-Goldfarb-Shanno (LBFGS)ソルバーとリッジ(L2)正則化を使用して,正則化された目的関数を最小化します。学習に使用したLBFGSソルバのタプを調べるには,コマンドウィンドウでFitInfo。解算器
と入力します。
“LBFGS-fast”
- LBFGSソルバ。
“LBFGS-blockwise”
-ブロック単位方式を使用するLBFGSソルバ。変換後の予測子デ,タを保持するためにfitckernel
で必要となるメモリがBlockSize
の値より多い場合,ブロック単位方式が使用されます。
“LBFGS-tall”
-ブロック単位方式のtall配列用LBFGSソルバ。
fitckernel
がブロック単位方式を使用する場合,fitckernel
は各反復で損失と勾配の計算をデータのさまざまな部分に分散させることによりLBFGSを実装します。また,fitckernel
は,データの一部に対して局所的にモデルをあてはめ,平均化で係数を結合することにより,線形係数およびバイアス項の初期推定値を改善します。“详细”,1
が指定された場合,fitckernel
は各デタ通過にいての診断情報を表示し,情報をFitInfo
の历史
フィ,ルドに格納します。
fitckernel
がブロック単位方式を使用しない場合,初期推定値はゼロになります。“详细”,1
が指定された場合,fitckernel
は各反復にいての診断情報を表示し,情報をFitInfo
の历史
フィ,ルドに格納します。
[1]拉希米,A.和B.雷希特。大规模核机器的随机特征。神经信息处理系统研究进展。Vol. 20, 2008, pp. 1177-1184。
[2] Le, Q, T. Sarlós和A. Smola。“快餐-在对数线性时间内近似核扩展。”第30届机器学习国际会议论文集。Vol. 28 No. 3, 2013, pp. 244-252。
[3]黄,P. S., H. Avron, T. N. Sainath, V. Sindhwani和B. Ramabhadran。“核方法与TIMIT上的深度神经网络相匹配。2014年IEEE声学、语音和信号处理国际会议,2014年,第205-209页。
使用上の注意事項および制限事項:
fitckernel
は高表格
デ,タをサポ,トしていません。
一部の名前と値のペアの引数は,电子邮件ンメモリの関数fitckernel
と既定値が異なります。サポトされる名前と値のペアの引数および違いは次のとおりです。
“学习者”
“NumExpansionDimensions”
“KernelScale”
“BoxConstraint”
“λ”
“BetaTolerance”
-既定値は1 e - 3
に緩和されます。
“GradientTolerance”
-既定値は1 e-5
に緩和されます。
“IterationLimit”
-既定値は20.
に緩和されます。
“BlockSize”
“RandomStream”
“HessianHistorySize”
“详细”
-既定値は1
です。
“类名”
“成本”
“之前”
“ScoreTransform”
“重量”
-値は高配列でなければなりません。
“OptimizeHyperparameters”
“HyperparameterOptimizationOptions”
-交差検証として,高最適化では“坚持”
検証のみがサポ,トされます。既定では、データの 20% がホールドアウト検証データとして選択されて確保され、残りのデータがモデルの学習に使用されます。この引数を使用してホールドアウトの比率に別の値を指定できます。たとえば、データの 30% を検証データとして確保するには“HyperparameterOptimizationOptions”、结构(“抵抗”,0.3)
と指定します。
“KernelScale”
が“汽车”
である場合,fitckernel
はtallrng
によって制御される乱数ストリ,ムをサブサンプリングに使用します。再現性を得るには,tallrng
によって制御される乱数ストリームとグローバルストリームの両方について乱数のシードを設定しなければなりません。
“λ”
が“汽车”
である場合,fitckernel
はX
内の観測値の個数を計算するため,さらにデ,タを通過する可能性があります。
fitckernel
はブロック単位方式を使用します。詳細にいては,アルゴリズムを参照してください。
詳細は,高配列を参照してください。
ハパパラメタの最適化を並列実行するには,この関数を呼び出すときに名前と値の引数“HyperparameterOptimizationOptions”、结构(UseParallel,真的)
を指定します。
並列的なハ▪▪パ▪▪パラメ▪タ▪の最適化の詳細に▪▪いては並列ベ@ @ズ最適化を参照してください。
並列計算の全般的な情報にいては,自動並列サポトを使用したmatlab関数の実行(并行计算工具箱)を参照してください。
bayesopt
|bestPoint
|ClassificationKernel
|ClassificationPartitionedKernel
|fitclinear
|fitcsvm
|预测
|重新开始
|templateKernel
次のmatlabコマンドに対応するリンクがクリックされました。
コマンドをmatlabコマンドウィンドウに入力して実行してください。Webブラウザ,はMATLABコマンドをサポ,トしていません。
您也可以从以下列表中选择一个网站:
选择中国站点(中文或英文)以获得最佳站点性能。其他MathWorks国家站点没有针对您所在位置的访问进行优化。