ベイズ統計の直感 ─ 事前分布・尤度・事後分布の関係を1から
頻度主義と対比しながら、ベイズの定理がなぜ強力なのかを段階的に解説。共役分布・MAP推定・MCMCまで、準1級受験者が最初に押さえるべき5つの軸。
頻度主義の検定や信頼区間に慣れていると、ベイズ統計は『別の流派』に見えるかもしれません。しかし両者は対立するというより、異なる質問に答える道具。本記事ではベイズの定理を 5 つのステップで直感的に押さえ、準1級受験者が最初にハマる『事後分布が計算できない』壁の越え方まで案内します。
ベイズの定理 ─ 1 行で書ける魔法
- : 事前分布 — データを見る前のパラメータについての信念
- : 尤度 — 真値が ならデータ が観測される確率
- : 事後分布 — データを見た後の更新された信念
- : 正規化定数 — 普通は計算困難
正規化定数は計算困難ですが、 に依存しないので 事後分布の形 には影響しません。MCMC や変分推論はこの性質を利用し、比例関係 だけで動作します。
頻度主義との違い
10 回投げて 8 回表が出た。(表確率)はいくつ?
頻度主義(MLE): 。点推定。信頼区間は『手続きの性質』として 95% 信頼区間を計算
ベイズ: 事前に『コインは公平っぽい』と思っていた → ベータ事前 Beta(2, 2)。観測 → 事後 Beta(10, 4)。 → 事後平均 = 10/14 ≈ 0.71、事後 95% 確信区間 [0.45, 0.91]、 など、事後確率を直接計算できる
共役分布 ─ 事後が解析的に求まる組み合わせ
- ベルヌーイ尤度 + ベータ事前 → ベータ事後:
- ポアソン尤度 + ガンマ事前 → ガンマ事後:
- 正規(分散既知) + 正規事前 → 正規事後: 平均は加重平均、分散は精度の和の逆数
- 多項尤度 + ディリクレ事前 → ディリクレ事後: カテゴリの頻度を加算
MAP 推定 ─ 事後分布の最頻値
事後分布 を最大化する が MAP 推定値:
事前分布が一様なら が定数になり、MAP は MLE と一致します。MAP は 正則化付き最尤推定 と等価で、L2 正則化 ↔ ガウス事前、L1 ↔ ラプラス事前と対応します。
事後平均 vs MAP vs 事後中央値
- 事後平均: 二乗誤差を最小化する点推定
- MAP: 0-1 損失を最小化する点推定(離散的には最頻値)
- 事後中央値: 絶対誤差を最小化する点推定。歪んだ事後で頑健
MCMC ─ 事後を計算困難なときの救世主
事後分布を解析的に書けないとき、事後からのサンプル を大量に生成すれば、平均・分位点・確信区間などを近似できます。これが マルコフ連鎖モンテカルロ(MCMC) の発想です。代表的アルゴリズム: メトロポリス・ヘイスティングス、Gibbs サンプリング、Hamiltonian Monte Carlo(HMC)、NUTS(Stan の標準)。
PyMC で実装してみる
import numpy as np
import pymc as pm
observed_heads = 8
n_trials = 10
with pm.Model() as model:
theta = pm.Beta('theta', alpha=2, beta=2) # 事前 Beta(2,2)
obs = pm.Binomial('obs', n=n_trials, p=theta, observed=observed_heads)
trace = pm.sample(2000, return_inferencedata=True)
import arviz as az
print(az.summary(trace, var_names=['theta']))
# 出力: 事後平均 ≈ 0.71、94% HDI ≈ [0.46, 0.91]頻度主義 vs ベイズの使い分け
- 頻度主義が向く: 大標本・繰り返し可能な実験・規制が要求する場合(医薬品申請の伝統)
- ベイズが向く: 小標本・事前知識を活用したい・階層モデル・予測区間を直接欲しい・逐次更新したい場合
- 現代の実務: 統合的アプローチも。頻度主義の信頼区間 = 一様事前のベイズ信用区間と一致するケースが多い
準1級でよく出るベイズ問題のパターン
- ベータ-二項共役性での事後パラメータ計算
- ベイズの定理を使った検査の陽性的中率
- MAP 推定 vs 事後平均 vs MLE の比較
- MCMC の収束判定(Gelman-Rubin 統計量、有効サンプルサイズ)
- 事前分布の感度分析
まとめ
- ベイズ = 事前 × 尤度 → 事後の枠組み(信念の更新)
- 共役分布なら計算簡単、それ以外は MCMC で
- MAP は正則化付き MLE と等価
- 事後分布から確信区間・予測分布が直接求まるのが強み
関連リンク
- [準1級教科書 第 2 章 ベイズ統計](/textbook/grade-pre1#ch2)
- [動かして学ぶ統計 → ベイズ更新](/explore)
- [用語集 → ベイズ統計](/glossary)
本気で AI エンジニアを目指すなら ─ 関連スクール
以下は当サイトと提携しているスクールの紹介です。リンク経由でのお申込で運営費を支援できます(読者の皆様の追加負担はありません)。
関連記事
- 2026-05-02統計検定対策分散分析(ANOVA)の直感 ─ なぜ t 検定を3回やってはいけないのか3 群以上の平均比較で多重比較問題を避けるための分散分析。F 統計量の意味、平方和の分解、Tukey HSD まで、2 級受験者向けに直感重視で解説。
- 2026-05-02統計検定対策重回帰分析を1から ─ 偏回帰係数・多重共線性・残差診断のすべて統計検定 2 級の核心、重回帰分析。単回帰との違い、偏回帰係数の意味、多重共線性の VIF 診断、残差プロットによるモデル妥当性チェックまでを実例付きで。
- 2026-05-03統計検定対策重回帰分析の多重共線性 ─ VIF で診断・解決する方法重回帰で『個々の係数は有意でないのに F 検定では全体が有意』という奇妙な結果が出る原因『多重共線性』。VIF(分散拡大係数)で診断し、変数削減・PCA・リッジで解決する実装手順を Python コード付きで解説。