分散分析(ANOVA)の直感 ─ なぜ t 検定を3回やってはいけないのか
3 群以上の平均比較で多重比較問題を避けるための分散分析。F 統計量の意味、平方和の分解、Tukey HSD まで、2 級受験者向けに直感重視で解説。
「3 つの肥料 A, B, C で収穫量に差があるか?」「4 種類の広告でクリック率は違うか?」 ── このとき、ペアごとに t 検定を繰り返したくなりますが、それは やってはいけない 行為です。なぜでしょうか?
多重比較問題 ─ 検定を増やすほど「偶然の有意」が出る
の検定を 1 回やれば、Type I エラー(本当は差がないのに棄却する)確率は 5% です。では 3 回やったら? 3 回すべて正しく非棄却する確率は 。少なくとも 1 回誤って棄却する確率は 、つまり全体のエラー率は 約 14% に膨らみます。
ANOVA の発想: いきなり個別ペアを見るのではなく、まず「全群が同じか?」を 1 回の検定で判定する。F 検定 1 つだけなら、全体のエラー率が 5% に抑えられる。有意なら次に個別比較に進む、という 2 段構え。
F 統計量 ─ 何の比なのか
ANOVA の F 統計量は「群間ばらつき(処理効果) / 群内ばらつき(誤差)」の比です:
群、合計 標本。群間ばらつきが群内ばらつきより大きければ大きいほど は大きくなります。 全群平均が等しい、のもとで 。
個のグループを箱に入れると考えます。各箱の中の散らばり(群内)と、箱同士の中央の散らばり(群間)。全部の箱の中央が揃っていれば、群間ばらつきは群内ばらつきと同程度(F ≈ 1)。逆に箱がバラバラに離れていれば、群間ばらつきが優勢(F が大)。これが ANOVA の核心です。
平方和の直交分解
全データのばらつき は、必ず以下のように分解されます:
- ─ 群間平方和
- ─ 群内平方和(誤差)
「データの全ばらつきを、グループごとの平均の違いで説明できる部分(処理効果)と、そうでない部分(残差)に分ける」── これが直交分解の意味。 はこの 2 つを自由度で正規化した比です。
事後検定 ─ どの群とどの群が違う?
ANOVA で を棄却したら、「では具体的にどのペアか?」は事後検定で調べます:
- Bonferroni: 各検定の有意水準を に。簡便だが保守的
- Tukey HSD: 全ペア比較の標準。サンプルサイズが揃っているときに効率的
- Dunnett: コントロール群と他の群だけを比較したいときに最も検出力が高い
- Holm: Bonferroni を順序付きで段階的に。バランス型
前提と注意点
- 正規性: 各群が正規分布。Q-Q プロットで確認
- 等分散性: 全群で分散が等しい。Levene 検定で確認
- 独立性: 観測が独立。実験計画から判断
- 等分散が崩れたら Welch ANOVA、正規性が大きく崩れたら Kruskal-Wallis(ノンパラメトリック ANOVA)を検討
Python で実装
まとめ
- ペアごとの t 検定を繰り返すと多重比較問題で全体エラー率が膨らむ
- ANOVA は F 統計量で「群間 / 群内」のばらつき比を測り、全体差を 1 回で判定
- 有意なら Tukey HSD などで個別ペアを比較
- 前提(正規性・等分散・独立性)が崩れたら Welch ANOVA や Kruskal-Wallis へ
関連リンク
- [2 級教科書 第 4 章 分散分析](/textbook/grade-2#ch4)
- [統計計算ツール](/tools)
- [動かして学ぶ統計](/explore)
本気で AI エンジニアを目指すなら ─ 関連スクール
以下は当サイトと提携しているスクールの紹介です。リンク経由でのお申込で運営費を支援できます(読者の皆様の追加負担はありません)。
関連記事
- 2026-05-02統計検定対策重回帰分析を1から ─ 偏回帰係数・多重共線性・残差診断のすべて統計検定 2 級の核心、重回帰分析。単回帰との違い、偏回帰係数の意味、多重共線性の VIF 診断、残差プロットによるモデル妥当性チェックまでを実例付きで。
- 2026-05-02統計検定対策ベイズ統計の直感 ─ 事前分布・尤度・事後分布の関係を1から頻度主義と対比しながら、ベイズの定理がなぜ強力なのかを段階的に解説。共役分布・MAP推定・MCMCまで、準1級受験者が最初に押さえるべき5つの軸。
- 2026-05-03統計検定対策重回帰分析の多重共線性 ─ VIF で診断・解決する方法重回帰で『個々の係数は有意でないのに F 検定では全体が有意』という奇妙な結果が出る原因『多重共線性』。VIF(分散拡大係数)で診断し、変数削減・PCA・リッジで解決する実装手順を Python コード付きで解説。