本文へスキップ
統計ロードマップ
2026-05-02·統計検定対策·⏱ 約 6

ベイズ統計の直感 ─ 事前分布・尤度・事後分布の関係を1から

頻度主義と対比しながら、ベイズの定理がなぜ強力なのかを段階的に解説。共役分布・MAP推定・MCMCまで、準1級受験者が最初に押さえるべき5つの軸。

頻度主義の検定や信頼区間に慣れていると、ベイズ統計は『別の流派』に見えるかもしれません。しかし両者は対立するというより、異なる質問に答える道具。本記事ではベイズの定理を 5 つのステップで直感的に押さえ、準1級受験者が最初にハマる『事後分布が計算できない』壁の越え方まで案内します。

ベイズの定理 ─ 1 行で書ける魔法

  • : 事前分布 — データを見る前のパラメータについての信念
  • : 尤度 — 真値が ならデータ が観測される確率
  • : 事後分布 — データを見た後の更新された信念
  • : 正規化定数 — 普通は計算困難
「比例」の右側だけ見ればいい

正規化定数は計算困難ですが、 に依存しないので 事後分布の形 には影響しません。MCMC や変分推論はこの性質を利用し、比例関係 だけで動作します。

頻度主義との違い

「コインの表確率」を例に

10 回投げて 8 回表が出た。(表確率)はいくつ?

頻度主義(MLE): 。点推定。信頼区間は『手続きの性質』として 95% 信頼区間を計算

ベイズ: 事前に『コインは公平っぽい』と思っていた → ベータ事前 Beta(2, 2)。観測 → 事後 Beta(10, 4)。 → 事後平均 = 10/14 ≈ 0.71、事後 95% 確信区間 [0.45, 0.91]、 など、事後確率を直接計算できる

共役分布 ─ 事後が解析的に求まる組み合わせ

  • ベルヌーイ尤度 + ベータ事前 → ベータ事後:
  • ポアソン尤度 + ガンマ事前 → ガンマ事後:
  • 正規(分散既知) + 正規事前 → 正規事後: 平均は加重平均、分散は精度の和の逆数
  • 多項尤度 + ディリクレ事前 → ディリクレ事後: カテゴリの頻度を加算

MAP 推定 ─ 事後分布の最頻値

事後分布 を最大化する MAP 推定値:

事前分布が一様なら が定数になり、MAP は MLE と一致します。MAP は 正則化付き最尤推定 と等価で、L2 正則化 ↔ ガウス事前、L1 ↔ ラプラス事前と対応します。

事後平均 vs MAP vs 事後中央値

  • 事後平均: 二乗誤差を最小化する点推定
  • MAP: 0-1 損失を最小化する点推定(離散的には最頻値)
  • 事後中央値: 絶対誤差を最小化する点推定。歪んだ事後で頑健

MCMC ─ 事後を計算困難なときの救世主

サンプリングで分布を表現する

事後分布を解析的に書けないとき、事後からのサンプル を大量に生成すれば、平均・分位点・確信区間などを近似できます。これが マルコフ連鎖モンテカルロ(MCMC) の発想です。代表的アルゴリズム: メトロポリス・ヘイスティングス、Gibbs サンプリング、Hamiltonian Monte Carlo(HMC)、NUTS(Stan の標準)。

PyMC で実装してみる

コインの偏り推定をベイズで
import numpy as np
import pymc as pm

observed_heads = 8
n_trials = 10

with pm.Model() as model:
    theta = pm.Beta('theta', alpha=2, beta=2)  # 事前 Beta(2,2)
    obs = pm.Binomial('obs', n=n_trials, p=theta, observed=observed_heads)
    trace = pm.sample(2000, return_inferencedata=True)

import arviz as az
print(az.summary(trace, var_names=['theta']))
# 出力: 事後平均 ≈ 0.71、94% HDI ≈ [0.46, 0.91]

頻度主義 vs ベイズの使い分け

  • 頻度主義が向く: 大標本・繰り返し可能な実験・規制が要求する場合(医薬品申請の伝統)
  • ベイズが向く: 小標本・事前知識を活用したい・階層モデル・予測区間を直接欲しい・逐次更新したい場合
  • 現代の実務: 統合的アプローチも。頻度主義の信頼区間 = 一様事前のベイズ信用区間と一致するケースが多い

準1級でよく出るベイズ問題のパターン

  • ベータ-二項共役性での事後パラメータ計算
  • ベイズの定理を使った検査の陽性的中率
  • MAP 推定 vs 事後平均 vs MLE の比較
  • MCMC の収束判定(Gelman-Rubin 統計量、有効サンプルサイズ)
  • 事前分布の感度分析

まとめ

  • ベイズ = 事前 × 尤度 → 事後の枠組み(信念の更新)
  • 共役分布なら計算簡単、それ以外は MCMC で
  • MAP は正則化付き MLE と等価
  • 事後分布から確信区間・予測分布が直接求まるのが強み

関連リンク

  • [準1級教科書 第 2 章 ベイズ統計](/textbook/grade-pre1#ch2)
  • [動かして学ぶ統計 → ベイズ更新](/explore)
  • [用語集 → ベイズ統計](/glossary)
Sponsored / Recommended

本気で AI エンジニアを目指すなら ─ 関連スクール

以下は当サイトと提携しているスクールの紹介です。リンク経由でのお申込で運営費を支援できます(読者の皆様の追加負担はありません)。

Related Articles

関連記事