統計ロードマップ
2026-04-30·実装·⏱ 約 5

MLOps 基礎 ─ ML モデルを本番で運用する

実験室の精度から本番運用へ。データバージョニング・モデル監視・CI/CD・特徴量ストアなど、AI エンジニアが押さえるべき MLOps の基礎を 6 領域で解説。

Jupyter で 90% 出した精度も、本番環境で動かなければ価値ゼロ。MLOps は ML モデルをプロダクションで安定運用するためのプラクティス群です。

MLOps の 6 領域

  1. データバージョニング(DVC ・ LakeFS)
  2. 実験管理(MLflow ・ Weights & Biases)
  3. モデルレジストリ(MLflow ・ SageMaker)
  4. CI/CD パイプライン(GitHub Actions ・ Vertex AI)
  5. サービング(FastAPI ・ TorchServe ・ Triton)
  6. 監視 ・ 再学習(Evidently ・ Arize)

1. データバージョニング

コードを Git で管理するように、データも管理する必要があります。データが変わるとモデル結果も変わるため。

DVC の例
# データを DVC で追跡
dvc add data/raw/train.csv
git add data/raw/train.csv.dvc .gitignore
git commit -m 'Track training data v1'

# データを更新したら
dvc add data/raw/train.csv  # 自動で hash 更新
git commit -am 'Update training data v2'

2. 実験管理

MLflow で実験を追跡
import mlflow

with mlflow.start_run():
    mlflow.log_param('lr', 0.01)
    mlflow.log_param('batch_size', 32)

    # 学習...

    mlflow.log_metric('accuracy', acc)
    mlflow.log_metric('loss', loss)
    mlflow.sklearn.log_model(model, 'model')

全実験のハイパラ ・ 評価指標 ・ モデルファイルが Web UI で一覧できる ─ 数百回の試行でも比較可能。

3. モデルレジストリ

学習済みモデルを バージョン付き で保管。本番に出す前に Staging → Production のステージング:

  • v1: ベースライン
  • v2: A/B テスト中(canary)
  • v3: 本番運用中
  • ロールバック: v3 で問題が出たら v2 に即戻し

4. CI/CD

コード push → 自動テスト → 学習 → 評価 → デプロイ までの自動化。

GitHub Actions の例
# .github/workflows/ml.yml
name: ML Pipeline
on: [push]
jobs:
  train:
    steps:
      - uses: actions/checkout@v4
      - run: pip install -r requirements.txt
      - run: python train.py
      - run: python evaluate.py --threshold 0.85
      - run: python deploy.py  # 評価合格時のみ

5. サービング

  • FastAPI: シンプル ・ 軽量
  • TorchServe: PyTorch 専用、バッチ処理 ・ A/B 内蔵
  • Triton: GPU 推論最適化、複数フレームワーク対応
  • Vertex AI / SageMaker: マネージドで運用負担最小
FastAPI で 5 行サービング
from fastapi import FastAPI
import joblib

app = FastAPI()
model = joblib.load('model.pkl')

@app.post('/predict')
def predict(features: list[float]):
    return {'prediction': float(model.predict([features])[0])}

6. 監視 ・ 再学習

本番に出して終わりではなく、継続的に監視 が必要:

  • Data Drift: 入力データ分布が変わっていないか
  • Prediction Drift: 予測分布が変わっていないか
  • Performance: 精度が落ちていないか(ground truth が遅延入手の場合も)
  • レイテンシ ・ エラー率: 普通の Web サービス監視
  • Drift 検出 → 再学習トリガー
🛠 実務で出る課題

コロナでユーザー行動が激変 → モデル精度が落ちた、なんて事例が無数にあります。Drift 監視は必須。

学習リソース

  • [scikit-learn 入門](/blog/sklearn-introduction)
  • [Pandas Tips](/blog/pandas-tips-for-ml)
  • [Python 環境構築](/blog/python-setup-for-stats)
  • [E 資格 ロードマップ](/certs/e-shikaku/roadmap)

まとめ

MLOps は『コードを書いて終わり』ではなく『継続して動かす』ことが本質。AI エンジニアの実務時間の 6〜8 割は MLOps 領域 とも言われます。早めに体系を掴んでおくと差がつきます。

Related Articles

関連記事