ロジスティック回帰(IRLS法)を使用して二値アウトカム(0/1)を1つ以上の予測変数から予測します。オッズ比、分類表、モデル適合統計量を含みます。
二項ロジスティック回帰分析(Binary Logistic Regression)は、1つ以上の 予測変数(独立変数)と二値(二分型)結果変数との関係をモデル化する統計 手法です。線形回帰が連続型の結果を予測するのに対し、ロジスティック回帰は 観測値が2つのカテゴリ(0と1にコード化)のいずれに属するかの確率を予測します。このモデルはロジスティック(シグモイド) 関数を使用して、予測確率を0と1の間に制約します。
ロジスティック回帰の歴史は、1838年にベルギーの数学者 Pierre-François Verhulstが人口増加をモデル化するために ロジスティック関数を導入したことに遡ります。その後、1944年にJoseph Berksonが"logit"という用語を造り、David Coxが1958年にこれを 統計的回帰フレームワークとして確立し、現代のロジスティック回帰分析の 基盤が築かれました。今日、ロジスティック回帰は医学(疾病発生予測)、 マーケティング(購買行動予測)、社会科学(投票行動分析)など、ほぼ すべての分野で中核的な分類手法として使用されています。
ロジスティック回帰の核心は対数オッズ(logit)変換です。 結果変数の確率pを直接モデル化する代わりに、オッズの自然対数を 線形関数としてモデル化します:logit(p) = ln(p / (1 − p)) = B0 + B1X1 + B2X2 + …。この変換により左辺は−∞から +∞までの範囲を持ち、シグモイド関数p = 1 / (1 + e−z)を通じて0–1の確率に逆変換されます。
モデルの係数推定には最尤推定法(Maximum Likelihood Estimation, MLE)が使用されます。線形回帰の最小二乗法とは異なり、MLEは 観測データが出現する尤度(likelihood)を最大化する係数を反復的に探索 します。具体的にはIRLS(Iteratively Reweighted Least Squares)アルゴリズムが使用され、これはRの glm() 関数やSPSSで使用されるものと同一の手法です。IRLSは各反復で重みを更新し、 収束基準(tolerance)を満たすまで係数を改善していきます。
オッズ比(Odds Ratio)— Exp(B)
オッズ比は、予測変数が1単位増加した場合の結果発生オッズの乗法的変化を 表します。オッズ比が1より大きい場合、その予測変数が増加するほど結果 発生のオッズが増加することを、1より小さい場合はオッズが減少することを 意味します。正確に1であれば、予測変数が結果に影響を及ぼさないことを 意味します。例えば、Exp(B) = 1.5は、予測変数が1単位増加する と結果発生のオッズが50%増加することを意味します。オッズ比の95%信頼 区間が1を含む場合は統計的に有意ではありません。
Wald検定
Wald検定は、個々の予測変数が統計的に有意であるかを評価します。回帰 係数を標準誤差で割った比率の二乗(Wald = (B / SE)²)で計算され、自由度1のカイ二乗分布に従います。 Wald統計量のp値が有意水準(一般的に.05)より小さい場合、 その予測変数がモデルに有意な寄与をしていると結論づけます。ただし、 係数が非常に大きい場合や分離(separation)問題がある場合、Wald検定 は保守的(第二種の過誤が増加)になる可能性があるため注意が必要です。
疑似R²(Pseudo R²)指標
線形回帰とは異なり、ロジスティック回帰には真のR²は存在しません。 代わりにモデルの説明力を近似する複数の疑似R²指標が使用されます。Cox & Snell R²はモデルの尤度比に基づきますが、 最大値が1に達しないという限界があります。 Nagelkerke R²はCox & Snellの値を調整して 0から1の範囲を持つようにしたもので、解釈がより直観的です。一般的に Nagelkerke R²を報告し、値が大きいほどモデルの説明力が高いと 解釈します。
総括検定(Omnibus Test)
総括カイ二乗検定(Omnibus Test of Model Coefficients)は、すべての 予測変数を含むモデルが切片のみの帰無モデル(null model)よりも有意に 優れているかを評価します。この検定は2つのモデルの−2対数尤度の 差をカイ二乗統計量として使用し、自由度はモデルに含まれる予測変数の 数です。総括検定が有意であれば(p < .05)、少なくとも1つ の予測変数が結果予測に有意な寄与をしていることを意味します。
医学研究者が年齢(歳)とBMI(kg/m²)を用いて特定疾病の発生有無 (0 = 非発生、1 = 発生)を予測しようとしています。30名の患者データを 収集し、二項ロジスティック回帰分析を実施しました。
モデル要約
−2対数尤度 = 24.31、Cox & Snell R² = .35、 Nagelkerke R² = .47
総括検定(Omnibus Test)
χ²(2) = 13.05、p = .001 — モデルが帰無モデルよりも有意に優れています。
回帰係数表
| 変数 | B | SE | Wald | df | p | Exp(B) | 95% CI |
|---|---|---|---|---|---|---|---|
| 年齢 | 0.12 | 0.05 | 5.76 | 1 | .016 | 1.13 | [1.02, 1.25] |
| BMI | 0.28 | 0.11 | 6.48 | 1 | .011 | 1.32 | [1.07, 1.64] |
| 定数 | −12.45 | 4.21 | 8.74 | 1 | .003 | 0.00 | — |
結果の解釈
年齢とBMIの両方が疾病発生の有意な予測変数です。年齢が1歳増加すると 疾病発生のオッズが13%増加し(Exp(B) = 1.13)、BMIが1単位 増加すると疾病発生のオッズが32%増加します(Exp(B) = 1.32)。 Nagelkerke R² = .47は、モデルが結果の変動の約47%を説明して いることを示しています。
分類表(Classification Table、混同行列とも呼ばれる)は、モデルが予測した カテゴリと実際に観察されたカテゴリを比較して、モデルの分類性能を評価 します。一般的に確率カットオフ0.5を基準として、予測確率が0.5以上であれば 1(発生)、未満であれば0(非発生)に分類します。
感度(Sensitivity)— 真陽性率
実際の陽性(1)の中でモデルが正確に陽性と予測した割合です。感度 = 真陽性 / (真陽性 + 偽陰性)。医学における疾病スクリーニング検査の場合、 高い感度が重要です—疾病を有する患者を見逃さないようにする必要が あるためです。
特異度(Specificity)— 真陰性率
実際の陰性(0)の中でモデルが正確に陰性と予測した割合です。特異度 = 真陰性 / (真陰性 + 偽陽性)。高い特異度は、健常者を誤って患者として 分類する誤りを減らします。
全体精度
全事例のうち正確に分類された割合です。全体精度 = (真陽性 + 真陰性) / 総事例数。ただし、カテゴリの比率が不均衡な場合(例:陽性10%、陰性 90%)、全体精度だけではモデルの性能を判断しにくくなります— すべての事例を陰性と予測しても90%の精度を達成できるためです。
確率カットオフ(Cutoff)
デフォルトのカットオフは0.5ですが、研究目的に応じて調整できます。 カットオフを低くすると(例:0.3)感度が高くなりますが特異度が低下し、 カットオフを高くすると(例:0.7)特異度が高くなりますが感度が低下 します。最適なカットオフはROC曲線分析や研究の文脈(偽陽性と偽陰性の コスト)を考慮して決定します。
Hosmer-Lemeshow検定は、ロジスティック回帰モデルがデータにどの程度適合 しているかを評価する代表的な方法です。この検定は、観測値を予測確率に 基づいて通常10個の同サイズの群(十分位数)に分け、各群内で観測された 頻度とモデルが予測した期待頻度を比較します。
観測頻度と期待頻度の差を総合したカイ二乗統計量が計算され、自由度は 通常8(群数 − 2)です。検定結果の解釈は他の適合度検定とは異なり ます:非有意な結果(p > .05)が望ましく、 これはモデルの予測が観測データと一致していることを示します。逆に有意な 結果(p ≤ .05)は、モデルの適合度が不十分であることを 示唆します。
ただし、Hosmer-Lemeshow検定には限界があります。標本サイズが非常に大きい と些細な差異でも有意になることがあり、逆に標本サイズが小さいと深刻な 適合不足を検出できないことがあります。また、群の数や構成方法によって 結果が異なる場合があります。そのため、この検定結果を他の適合度指標 (疑似R²、分類表の精度など)と合わせて総合的に解釈することが 推奨されます。
二値結果変数を分析する方法は複数あります。以下の表は、ロジスティック回帰 と関連分析手法の主な特徴を比較しています。
| 分析手法 | 結果変数の型 | リンク関数 | 主な特徴 |
|---|---|---|---|
| ロジスティック回帰 | 二値(0/1) | ロジット(logit) | オッズ比を提供、最も広く使用、分布仮定が最小限 |
| プロビット回帰 | 二値(0/1) | プロビット(Φ) | 潜在正規分布を仮定、疫学研究で選好 |
| 判別分析 | カテゴリ(2つ以上) | — | 多変量正規性と等分散性を仮定、連続型予測変数のみ |
| 重回帰分析 | 連続型 | 恒等(identity) | 連続型結果変数に適する、二値結果には不適切 |
二値結果変数に重回帰を適用すると(線形確率モデル)、予測値が0–1 の範囲を逸脱する可能性があり、誤差項の不等分散性の問題が発生します。 そのため、二値結果変数にはロジスティック回帰を使用するのが標準的な アプローチです。
ロジスティック回帰の結果を正しく解釈するためには、以下の仮定が合理的に 充足されている必要があります。これらの仮定に違反すると、偏った推定値、 不正確なp値、信頼できない結論につながる可能性があります。
1. 二値結果変数
従属変数は正確に2つのカテゴリ(0と1)を持つ必要があります。結果変数が 3つ以上のカテゴリを持つ場合は多項ロジスティック回帰を、順序のある カテゴリの場合は順序ロジスティック回帰を使用してください。
2. 観測の独立性
各観測は他の観測と独立している必要があります。反復測定やクラスタデータ (例:同一病院の患者)の場合は、一般化推定方程式(GEE)や混合効果 ロジスティック回帰を検討してください。
3. 多重共線性がないこと
予測変数間に高い相関がないことが必要です。多重共線性があると係数の 標準誤差が大きくなり、個々の予測変数の効果を正確に推定できなくなり ます。分散膨張係数(VIF)が10以上、または相関係数の絶対値が.8以上の 場合は多重共線性を疑う必要があります。
4. ロジットの線形性
連続型予測変数と結果変数の対数オッズ(logit)との間に線形関係がある 必要があります。この仮定はBox-Tidwell検定によって確認できます。違反 の場合は、予測変数の変換(対数、平方根など)や多項式項の追加を検討 してください。
5. 十分な標本サイズ(EPV ≥ 10)
安定した係数推定のために、事象あたりの予測変数数(Events Per Variable, EPV)が最低10以上である必要があります。 つまり、頻度の少ない結果カテゴリの事例数を予測変数の数で割った値が 10以上であることが求められます。例えば、陽性(1)が30件で予測変数が 3つであればEPV = 10で最低基準を満たします。EPVが不足すると過適合、 不安定な係数、収束失敗などの問題が生じる可能性があります。
6. 完全分離がないこと
完全分離(complete separation)は、1つ以上の予測変数が結果を完全に 予測する場合に発生します。この場合、最尤推定値が収束せず、係数が 無限大に発散します。準完全分離(quasi-complete separation)も同様の 問題を引き起こします。分離が検出された場合は、Firthのバイアス縮小 ロジスティック回帰や正確ロジスティック回帰を代替として検討して ください。
APA第7版ガイドラインに従い、ロジスティック回帰の結果には、総括モデル 検定結果、疑似R²、分類精度、および個々の予測変数の係数、Wald検定 結果、オッズ比と95%信頼区間を含める必要があります。以下は報告テンプレート と例です:
報告テンプレート
二項ロジスティック回帰分析を実施し、[結果変数]を[予測変数のリスト]で 予測した。全体モデルは統計的に有意であり、 χ²(df) = [値]、p = [値]、 Nagelkerke R² = [値]であった。モデルは全事例の[値]%を 正確に分類した。[予測変数]は有意な予測変数であり、 B = [値]、Wald χ²(1) = [値]、 p = [値]、OR = [値]、95% CI [下限, 上限]であった。
報告例
二項ロジスティック回帰分析を実施し、疾病発生の有無を年齢とBMIで予測 した。全体モデルは統計的に有意であり、 χ²(2) = 13.05、p = .001、Nagelkerke R² = .47であった。モデルは全事例の80.0%を正確に分類 した。年齢は有意な予測変数であり、B = 0.12、Wald χ²(1) = 5.76、p = .016、OR = 1.13、95% CI [1.02, 1.25]であった。BMIも有意な予測変数であり、 B = 0.28、Wald χ²(1) = 6.48、 p = .011、OR = 1.32、95% CI [1.07, 1.64]であった。
注:統計記号(B、p、χ²、 R²、OR)は常にイタリック体で表記します。p値は 小数第3位まで報告し、.001未満の場合はp < .001と表記します。 オッズ比と95%信頼区間は必ず併せて報告してください。
StatMateのロジスティック回帰分析はIRLS(Iteratively Reweighted Least Squares)アルゴリズムを使用しており、これはRの glm() 関数やSPSSで使用されるものと同一の手法です。各反復で収束を 10−8の許容誤差で確認し、分離検出機能を内蔵して います。カイ二乗確率分布にはjstatライブラリを使用しています。すべての 回帰係数、標準誤差、Wald統計量、オッズ比、疑似R²、 Hosmer-Lemeshow統計量はRおよびSPSSの出力と小数第4位以上一致する ことが検証されています。
t検定
2群の平均値を比較
分散分析
3群以上の平均値を比較
カイ二乗検定
カテゴリ変数の関連を検定
相関分析
関係の強さを測定
記述統計
データを要約
サンプルサイズ
検出力分析・標本計画
1標本t検定
既知の値との比較
マン・ホイットニーU
ノンパラメトリック群間比較
ウィルコクソン検定
ノンパラメトリック対応検定
回帰分析
X-Yの関係をモデル化
重回帰分析
複数の予測変数
クロンバックのα
尺度の信頼性
因子分析
潜在因子構造の探索
クラスカル・ウォリス
ノンパラメトリック3群以上比較
反復測定
被験者内分散分析
二元配置分散分析
要因計画の分析
フリードマン検定
ノンパラメトリック反復測定
フィッシャーの正確検定
2×2表の正確検定
マクネマー検定
対応のある名義データの検定
Excel/スプレッドシートから貼り付け、またはCSVファイルをドロップ
Excel/スプレッドシートから貼り付け、またはCSVファイルをドロップ
データを入力して「計算」をクリックしてください
または「サンプルデータを読み込む」をクリックしてお試しください