Main Content

このページの翻訳は最新ではありません。ここをクリックして、英語の最新版を参照してください。

非線形ロジスティック回帰

この例では、非線形ロジスティック回帰モデルを近似させる 2 つの方法を示します。1 番目の方法では、最尤 (ML) を使用します。2 番目の方法では、Statistics and Machine Learning Toolbox™ の関数fitnlmを利用して一般化最小二乗 (GLS) を使用します。

問題の説明

ロジスティック回帰は特殊なタイプの回帰であり、何かの確率を他の変数の関数としてモデル化することが目標です。予測子ベクトルの集合 x 1 , , x N について考えます。ここで、 N は観測値の個数、 x i i 番目の観測値についての d 個の予測子の値が含まれている列ベクトルです。 x i の応答変数は Z i です。ここで Z i は、試行回数 n および試行 i の成功確率 μ i というパラメーターをもつ二項確率変数を表します。正規化された応答変数は Y i = Z i / n であり、観測値 i についての n 回の試行における成功の比率です。応答 Y i i = 1 , , N について独立していると仮定します。各 i について

E ( Y i ) = μ i

V a r ( Y i ) = μ i ( 1 - μ i ) n .

予測子変数 x i の関数として μ i をモデル化することを考えます。

線形ロジスティック回帰では、関数fitglmを使用して次のように μ i x i の関数としてモデル化できます。

log ( μ i 1 - μ i ) = x i T β

β x i 内の予測子に乗算する係数の集合を表します。しかし、右辺で非線形関数が必要であると仮定します。

log ( μ i 1 - μ i ) = f ( x i , β ) .

Statistics and Machine Learning Toolbox™ には、非線形回帰モデルを近似させる関数はありますが、非線形ロジスティック回帰モデルを近似させる関数はありません。この例では、ツールボックス関数を使用してこのようなモデルを近似させる方法を示します。

直接最尤 (ML) 法

ML のアプローチでは、観測したデータの対数尤度を最大化します。尤度は、関数binopdfで計算した二項確率 (または密度) 関数を使用して簡単に計算できます。

一般化最小二乗 (GLS)

関数fitnlmを使用すると、非線形ロジスティック回帰モデルを推定できます。fitnlmは二項分布やリンク関数に対応していないので、はじめは意外に思うかもしれません。しかし、応答の平均と分散を指定した場合、fitnlmでは一般化最小二乗 (GLS) をモデルの推定に使用できます。GLS が収束する場合、ML で解く場合と同じ一連の非線形方程式の解が求められ、 β が推定されます。GLS は、一般化線形モデルの疑似尤度推定にも使用できます。言い換えると、GLS と ML では同じまたは等価な解が得られるはずです。GLS による推定を実装するには、あてはめる非線形関数と二項分布の分散関数を用意します。

平均またはモデル関数

モデル関数は、 μ i β によって変化する様子を説明します。fitnlmの場合、モデル関数は次のようになります。

μ i = 1 1 + exp { - f ( x i , β ) }

重み関数

fitnlmは、名前と値のペアの引数“重量”を使用して関数ハンドルとして観測値の重みを受け入れます。このオプションを使用する場合、fitnlmでは次のモデルを仮定します。

E ( Y i ) = μ i

V a r ( Y i ) = σ 2 w ( μ i )

ここで、応答 Y i は独立していると仮定されています。 w は、 μ i を受け入れて観測値の重みを返すカスタム関数ハンドルです。言い換えると、重みは応答の分散に反比例します。ロジスティック回帰モデルで使用する二項分布の場合、次のように重み関数を作成します。

w ( μ i ) = 1 V a r ( y i ) = n μ i ( 1 - μ i )

fitnlmは、応答 Y i の分散を σ 2 / w ( μ i ) としてモデル化します。ここで σ 2 は、GLS 推定には存在し、ロジスティック回帰モデルには存在しない追加パラメーターです。ただし、このパラメーターは通常は β の推定に影響を与えず、 Z i の値が二項分布に従うという仮定をチェックするための "分散パラメーター" を提供します。

直接 ML 法ではなくfitnlmを使用することのメリットとして,モデルの係数に対して仮説検定を実行し信頼区間を計算できます。

サンプル データの生成

ML と GLS の近似の違いを示すため、いくつかのサンプル データを生成します。 x i は 1 次元であり、非線形ロジスティック回帰モデルにおける真の関数 f 2 × 1 のベクトル β によってパラメーター表現されたミカエリス・メンテン モデルであると仮定します。

f ( x i , β ) = β 1 x i β 2 + x i .

myf = @(beta,x) beta(1)*x./(beta(2) + x);

μ i β の関係を指定するモデル関数を作成します。

mymodelfun = @(beta,x) 1./(1 + exp(-myf(beta,x)));

1 次元予測子のベクトルと真の係数のベクトル β を作成します。

rng(300,'twister'); x = linspace(-1,1,200)'; beta = [10;2];

各予測子について μ i 個の値が含まれているベクトルを計算します。

mu = mymodelfun(beta,x);

成功確率 μ i および試行回数 n をもつ二項分布から応答 z i を生成します。

n = 50; z = binornd(n,mu);

応答を正規化します。

y = z./n;

ML のアプローチ

ML のアプローチでは、負の対数尤度をベクトル β の関数として定義してから、fminsearchなどの最適化関数で最小化します。 β の開始値としてbeta0を指定します。

mynegloglik = @(beta) -sum(log(binopdf(z,n,mymodelfun(beta,x)))); beta0 = [3;3]; opts = optimset('fminsearch'); opts.MaxFunEvals = Inf; opts.MaxIter = 10000; betaHatML = fminsearch(mynegloglik,beta0,opts)
betaHatML =2×19.9259 1.9720

betaHatMLの推定係数は、真の値である[10;2]に近くなっています。

GLS のアプローチ

GLS のアプローチでは、前述したfitnlmの重み関数を作成します。

wfun = @(xx) n./(xx.*(1-xx));

平均と重みのカスタム関数を指定してfitnlmを呼び出します。 β の開始値としてbeta0を指定します。

nlm = fitnlm(x,y,mymodelfun,beta0,“重量”,wfun)
nlm = Nonlinear regression model: y ~ F(beta,x) Estimated Coefficients: Estimate SE tStat pValue ________ _______ ______ __________ b1 9.926 0.83135 11.94 4.193e-25 b2 1.972 0.16438 11.996 2.8182e-25 Number of observations: 200, Error degrees of freedom: 198 Root Mean Squared Error: 1.16 R-Squared: 0.995, Adjusted R-Squared 0.995 F-statistic vs. zero model: 1.88e+04, p-value = 2.04e-226

あてはめたNonLinearModelオブジェクトnlmから β の推定を取得します。

betaHatGLS = nlm.Coefficients.Estimate
betaHatGLS =2×19.9260 1.9720

ML 法の場合と同じように、betaHatGLSの推定係数は真の値である[10;2]に近くなっています。 β 1 β 2 の両方についてp値が小さいので,どちらの係数も 0 とは有意に異なることがわかります。

ML のアプローチと GLS のアプローチの比較

β の推定を比較します。

max(abs(betaHatML - betaHatGLS))
ans = 1.1460e-05

ML を使用した近似値と GLS を使用した近似値を比較します。

yHatML = mymodelfun(betaHatML ,x); yHatGLS = mymodelfun(betaHatGLS,x); max(abs(yHatML - yHatGLS))
ans = 1.2746e-07

ML のアプローチと GLS のアプローチでは、同様の解が得られます。

ML と GLS を使用した近似値のプロット

figure plot(x,y,'g','LineWidth',1) holdonplot(x,yHatML ,'b','LineWidth',1) plot(x,yHatGLS,'m--','LineWidth',1) legend('Data','ML','GLS','Location','Best') xlabel('x') ylabel('y and fitted values')标题('Data y along with ML and GLS fits.')

Figure contains an axes object. The axes object with title Data y along with ML and GLS fits. contains 3 objects of type line. These objects represent Data, ML, GLS.

ML と GLS では、同様の近似値が得られます。

ML と GLS を使用して推定した非線形関数のプロット

f ( x i , β ) について真のモデルをプロットします。 β = β 0 を使用した f ( x i , β ) の初期推定についてのプロットと、ML ベースおよび GLS ベースの f ( x i , β ) の推定のプロットを追加します。

figure plot(x,myf(beta,x),'r','LineWidth',1) holdonplot(x,myf(beta0,x),'k','LineWidth',1) plot(x,myf(betaHatML,x),'c--','LineWidth',1) plot(x,myf(betaHatGLS,x),'b-.','LineWidth',1) legend('True f','Initial f','Estimated f with ML','Estimated f with GLS','Location','Best') xlabel('x') ylabel('True and estimated f')标题('Comparison of true f with estimated f using ML and GLS.')

Figure contains an axes object. The axes object with title Comparison of true f with estimated f using ML and GLS. contains 4 objects of type line. These objects represent True f, Initial f, Estimated f with ML, Estimated f with GLS.

ML 法と GLS 法の両方を使用して推定された非線形関数 f は、真の非線形関数 f に近くなっています。同様の手法を使用して、非線形ポアソン回帰など他の非線形一般化線形モデルを近似させることができます。