本文へスキップ
統計ロードマップ
Glossary

マルコフ連鎖

読み: まるこふれんさ英: Markov chain準1確率過程

定義

次の状態が「現在の状態だけ」で決まる(過去に依存しない)確率過程。MCMC・状態空間モデルの基礎。

関連教材

関連する教科書の節を見る →

関連する用語(確率過程)