本文へスキップ
統計ロードマップ
Textbook

Google Cloud Professional Machine Learning Engineer 教科書

**Google Cloud Professional Machine Learning Engineer** は、Google Cloud 認定の **Professional レベル** で、**ML パイプラインの設計 ・ 構築 ・ デプロイ ・ 運用** ができるエンジニアを認定する高度試験です。**AWS ML Engineer Associate(MLA-C01)・ Azure AI Engineer(AI-102)** と並ぶ三大クラウド ML 認定の 1 つで、**Vertex AI ・ Gemini ・ BigQuery ML ・ TensorFlow / PyTorch on GCP ・ Kubeflow** など Google Cloud のフル AI スタックを扱います。本教科書は出題範囲を 10 章で体系的にカバーします。

目次

  1. 1 章 · GCP ML Engineer ─ 試験の全体像
    試験形式・出題範囲・他 GCP 認定との位置付けを整理します。
  2. 2 章 · Vertex AI のフル機能
    Vertex AI のサブサービスを Professional レベルで整理します。
  3. 3 章 · BigQuery ML と SQL ML
    SQL から ML を扱える BQML を整理します。
  4. 4 章 · データエンジニアリング
    Google Cloud の主要データサービスを ML 視点で整理します。
  5. 5 章 · TensorFlow / PyTorch on GCP
    GCP での DL フレームワーク活用を整理します。
  6. 6 章 · MLOps と Vertex AI Pipelines
    Kubeflow Pipelines をベースとした GCP の MLOps を整理します。
  7. 7 章 · デプロイとサービング
    オンライン / バッチ予測 ・ スケーリングを整理します。
  8. 8 章 · Model Monitoring とドリフト
    Vertex AI Model Monitoring の仕組みを整理します。
  9. 9 章 · 生成 AI と Gemini ファミリ
    Gemini ・ Vertex AI Studio ・ RAG を整理します。
  10. 10 章 · 受験対策の総まとめ
    範囲別チェックリストと試験当日の戦略を整理します。
Chapter 1

1 章 · GCP ML Engineer ─ 試験の全体像


§1.1

試験の位置付け

Professional ML Engineer は GCP 認定の Professional レベル に位置する高度認定。Generative AI Leader(Foundational) より上位で、ML パイプラインの設計者 ・ 実装者 を対象とします。Vertex AI を中心に、TensorFlow / PyTorch / Kubeflow / BigQuery ML を組合せた本格的な ML システムを設計できる力を測ります。

  • 主催: Google Cloud
  • 形式: オンライン監督受験 or テストセンター
  • 問題数 / 時間: 50 〜 60 問 / 120 分
  • 回答方式: 選択式(単一 / 複数)+ ケーススタディ
  • 合格スコア: 公開なし(参考: 約 70%)
  • 有効期限: 2 年(再認定が必要)
  • 受験料: 200 USD(参考)
  • 前提知識: ML / Python / SQL / Cloud Architecture の実務 3 年以上推奨

GCP 認定の階層

  • Foundational: Cloud Digital Leader / Generative AI Leader
  • Associate: Associate Cloud Engineer / Associate Data Practitioner
  • Professional: Cloud Architect / Data Engineer / ML Engineer(本資格) / Cloud Developer / Security / DevOps / Network
§1.2

出題ドメインと推奨学習プラン

公式試験ガイドのドメイン

  1. Architecting low-code AI solutions(約 13%): AutoML / BQML / 学習済 API
  2. Collaborating within and across teams to manage data and models(約 14%): MLOps / 共同作業
  3. Scaling prototypes into ML models(約 18%): プロトタイプ → 本番モデル化
  4. Serving and scaling models(約 20%): デプロイ ・ オンライン / バッチ予測 ・ スケーリング
  5. Automating and orchestrating ML pipelines(約 22%): Vertex AI Pipelines / Kubeflow / Cloud Composer
  6. Monitoring AI solutions(約 13%): Model Monitoring / ドリフト検出 ・ 再学習

200 〜 300 時間プラン

  1. Month 1: GCP 基礎 + ML 基礎(本サイトの[Generative AI Leader 教科書](/certs/gcp-gen-ai-leader/textbook)で土台)
  2. Month 2: Vertex AI フル機能(AutoML / Custom Training / Pipelines / Endpoints)
  3. Month 3: BigQuery ML + データエンジニアリング
  4. Month 4: TensorFlow / PyTorch on GCP + Kubeflow
  5. Month 5: MLOps + Model Monitoring + 模擬試験
Google Cloud Skills Boost + 実機ハンズオン必須

Professional レベルは 実機での Vertex AI 操作経験 が前提。Google Cloud Skills Boost(無料)+ 300 USD クレジット付き無料アカウント で本格的にハンズオンするのが王道。Coursera のスペシャライゼーション も効果的です。

Chapter 2

2 章 · Vertex AI のフル機能


§2.1

Vertex AI の主要コンポーネント

  • Vertex AI Workbench: マネージド Jupyter(JupyterLab + GCP 統合)
  • Vertex AI Studio: 生成 AI のプロンプト ・ Tuning ・ 評価
  • Vertex AI Pipelines: Kubeflow ベースの ML パイプライン
  • Vertex AI Feature Store: 特徴量管理(Online + Offline serving)
  • Vertex AI Model Registry: モデルバージョン管理
  • Vertex AI Endpoints: オンライン推論
  • Vertex AI Batch Predictions: バッチ推論
  • Vertex AI Model Monitoring: ドリフト検出
  • Vertex AI Experiments: 実験管理(MLflow 互換)
  • Vertex AI Tensorboard: 学習可視化
  • Vertex AI Vizier: ベイズ最適化サービス
  • Vertex AI Explanations: 説明可能性(XRAI / Integrated Gradients / Sampled Shapley)
  • Vertex AI Matching Engine: ベクトル類似度検索
  • Vertex AI Agent Builder: ノーコードエージェント
§2.2

AutoML と Custom Training

  • AutoML Tables: 表データの分類 / 回帰 / 時系列予測
  • AutoML Vision: 画像分類 ・ 物体検出
  • AutoML Text: テキスト分類 ・ エンティティ抽出 ・ 感情分析
  • AutoML Video: 動画分類 ・ オブジェクトトラッキング
  • Custom Training: TensorFlow / PyTorch / scikit-learn / XGBoost / Custom コンテナ
  • Pre-built Containers: TF / PyTorch の標準環境
  • Custom Container: Docker 任意イメージ
  • Hyperparameter Tuning(Vizier): ベイズ最適化
  • Distributed Training: Multi-worker / Parameter Server / Reduction Server
§2.3

計算リソースとコスト

  • Machine Types: n1 / n2 / e2 / a2(GPU)/ tpu-v3, v4, v5
  • TPU(Tensor Processing Unit): Google 自家製 AI チップ、TF / PyTorch / JAX 対応
  • TPU v5e: 推論 ・ 中規模学習向け、コスト効率重視
  • TPU v5p: 大規模学習向け、生成 AI などで使用
  • Spot VM: 中断耐性ある学習で 60 〜 80% 割引
  • Committed Use Discounts(CUD): 1 / 3 年予約割引
  • Reserved Capacity: 計画的キャパシティ
  • Custom Service Account: 最小権限の原則
Chapter 3

3 章 · BigQuery ML と SQL ML


§3.1

BigQuery ML(BQML)の特徴

BQML は SQL のみで ML を扱える Google 独自の機能。データウェアハウス内で完結 し、データの移動が不要なため、業務分析者がそのまま ML を始められる 利点が大きい。

  • サポートモデル: 線形回帰 / ロジスティック / k-means / 行列分解 / ARIMA / Boosted Tree / DNN / Transformer / AutoML / Vertex 統合 / インポートモデル
  • ML.PREDICT: 学習済モデルでの推論
  • ML.GENERATE_TEXT: BQ から Gemini を呼出
  • ML.GENERATE_EMBEDDING: ベクトル化
  • ML.UNDERSTAND_TEXT / ML.TRANSLATE / ML.ANNOTATE_IMAGE: NLP / 翻訳 / 画像
  • Remote model: Vertex AI モデルを BQML で呼出
  • Vector Search: ベクトル類似度検索
§3.2

BQML の使いどころ

  • プロトタイピング: SQL アナリストが ML を試作
  • 大規模データの学習: BQ 上で並列学習
  • Embedding 生成: 大量テキスト → ベクトル化
  • バッチ推論: 数十億行へ ML.PREDICT を一発実行
  • ハイブリッド構成: BQML(プロトタイプ)→ Vertex AI(本番化)が王道
Chapter 4

4 章 · データエンジニアリング


§4.1

ストレージ ・ DB

  • Cloud Storage(GCS): オブジェクトストレージ、ML データレイクの中核
  • BigQuery: マネージド DWH、列指向 + サーバレス
  • Cloud SQL: マネージド MySQL / PostgreSQL / SQL Server
  • Spanner: グローバル分散 RDB
  • Bigtable: NoSQL ワイドカラム、IoT / 時系列
  • Firestore: ドキュメント型 NoSQL
  • AlloyDB: PostgreSQL 互換高性能 DB
§4.2

ETL ・ オーケストレーション

  • Cloud Dataflow: Apache Beam ベースのストリーム + バッチ ETL
  • Cloud Dataproc: Hadoop / Spark マネージド
  • Cloud Composer: マネージド Apache Airflow
  • Cloud Data Fusion: GUI ベース ETL(CDAP ベース)
  • Cloud Pub/Sub: メッセージング ・ ストリーミング
  • Cloud Run / Cloud Functions: サーバレスコンピュート
  • Workflows: ステートマシン形式のサービス連携
  • Eventarc: イベント駆動連携
§4.3

Dataplex とデータガバナンス

  • Dataplex: マルチクラウド データガバナンス + リネージ
  • Data Catalog: メタデータカタログ
  • Cloud DLP(Sensitive Data Protection): 個人情報自動検出
  • IAM + Service Account: 最小権限
  • VPC Service Controls: ネットワーク境界
  • CMEK(Customer-Managed Encryption Keys): 顧客管理鍵
Chapter 5

5 章 · TensorFlow / PyTorch on GCP


§5.1

TensorFlow on GCP

  • TensorFlow Distribution Strategies: MirroredStrategy / MultiWorkerMirroredStrategy / TPUStrategy / ParameterServerStrategy
  • tf.data: 効率的なデータパイプライン
  • TFRecord: 効率的なバイナリ形式
  • TF Hub: 学習済モデル
  • TFX(TensorFlow Extended): 本番 ML パイプライン
  • Keras: 高レベル API
  • Saved Model 形式: GCP デプロイの標準
  • TFLite: モバイル ・ エッジ
§5.2

PyTorch on GCP

  • PyTorch Distributed: DDP / FSDP / Pipeline Parallel
  • PyTorch on TPU: PyTorch/XLA で TPU 利用
  • TorchServe: 推論サーバ
  • TorchScript: 本番デプロイ向けシリアライズ
  • Hugging Face Integration: Transformers ライブラリ
  • PyTorch Lightning: 学習ループの抽象化
  • ONNX Export: フレームワーク間相互運用
§5.3

JAX と分散学習

  • JAX: 関数型 + XLA、Google 内部で多用
  • JAX on TPU: TPU で最高性能
  • Flax / Haiku: JAX の高レベル API
  • Ray + JAX: 分散ハイパーパラメータ探索
  • MaxText / MaxDiffusion: Google 製の大規模 LLM / 拡散モデル学習フレームワーク
Chapter 6

6 章 · MLOps と Vertex AI Pipelines


§6.1

Vertex AI Pipelines

Vertex AI PipelinesKubeflow Pipelines + TFX をベースとしたサーバレス ML パイプラインサービス。Component(部品) を組合わせてワークフローを定義し、Pipeline Definition(YAML) にコンパイルしてサーバレス実行されます。

  • KFP DSL: Python で Component を定義 + Pipeline を組立
  • Pre-built Components: Google が提供する標準部品
  • Custom Component: 任意 Docker イメージで独自処理
  • Pipeline Run: 実行インスタンス
  • Pipeline Schedule: 定期実行
  • Caching: 同じ入力のステップは再実行をスキップ
  • Artifact Lineage: データ → モデルの来歴追跡
§6.2

実験管理とトレーサビリティ

  • Vertex AI Experiments: ML 実験の比較管理
  • Vertex AI Tensorboard: 学習指標の可視化
  • MLflow Integration: オープンソース MLflow との互換
  • Cloud Source Repositories / GitHub: コード管理
  • Cloud Build: コンテナ自動ビルド
  • Artifact Registry: コンテナイメージレジストリ
  • Cloud Deploy: 継続的デリバリ
§6.3

モデル昇格とガバナンス

  • Vertex AI Model Registry: モデルバージョン管理
  • Model Aliases: dev / staging / prod 等のラベル
  • Approval Workflow: Cloud Build / Cloud Deploy で承認制御
  • Endpoint Traffic Splitting: 複数モデルのトラフィック分散
  • Shadow Mode: 本番影響なしで新モデル試験
  • A/B テスト: トラフィック比率を段階的に
Chapter 7

7 章 · デプロイとサービング


§7.1

推論オプション

推論オプションの選び分け

1. Online Prediction: ms 級のリアルタイム推論。Endpoint 経由

2. Batch Prediction: 大量データの一括処理(GCS への CSV 出力など)

3. Online Serving with Co-located Feature Store: 低遅延 + 特徴量取得統合

4. Edge / On-device: TFLite で IoT / モバイル推論

  • Auto-scaling: トラフィック量で自動スケール
  • Min replicas / Max replicas: スケール範囲設定
  • GPU / TPU 推論: 高スループット用
  • Private Endpoint: VPC 内のみ
  • Custom Serving Container: 任意の推論サーバ
  • Optimized Tensorflow Runtime: GCP 最適化版
§7.2

コンテナとモデル形式

  • Pre-built Containers: TensorFlow / PyTorch / scikit-learn / XGBoost
  • Custom Container: HTTP サーバとして提供
  • Saved Model(TF)・ TorchScript / ONNX: 標準モデル形式
  • NVIDIA Triton: マルチフレームワーク推論サーバ
  • TensorRT: NVIDIA GPU 推論最適化
  • Optimized TensorFlow Runtime(OTR): GCP 最適化
§7.3

コスト最適化

  • Spot VM: 学習で 60 〜 80% 割引(中断あり)
  • Reduction Server: 分散学習の集約専用 VM、安価
  • Committed Use Discounts: 1 / 3 年予約
  • Right Sizing: 不要に大きい Machine Type を見直し
  • Min replicas = 0: 不定期トラフィック向け
  • Cold Start: 起動時の遅延、Min replicas で吸収
  • Distillation / Quantization: モデル軽量化
Chapter 8

8 章 · Model Monitoring とドリフト


§8.1

Vertex AI Model Monitoring

監視の 2 種類

Training-Serving Skew: 学習データ vs 推論データの分布差。学習時のスキーマと比較

Prediction Drift: 推論データの時間経過での分布変化。直近期間と過去期間を比較

  • 統計指標: KL Divergence / Jensen-Shannon / L-infinity / Chi-squared
  • Categorical Features: 分布変化の検出
  • Numerical Features: 統計量の変化
  • Sample Rate: 全推論の何 % をサンプル
  • Alerting: Cloud Monitoring と統合
  • Re-training Trigger: ドリフト検出 → 再学習自動起動
§8.2

Vertex AI Explanations

  • XRAI: 画像 ・ 動画向け説明
  • Integrated Gradients: NN ベース、勾配ベース
  • Sampled Shapley: ツリー / 表データ向け
  • Feature Importance: グローバル + ローカル
  • Counterfactual Explanations: 反実仮想
  • Online Explanations: 推論時のリアルタイム説明
§8.3

責任ある AI

  • Google AI 原則 7 つ: 公平性 / 偏見回避 / 安全性 / 説明責任 / プライバシー / 科学的卓越性 / 原則に沿う用途
  • Fairness Indicators: バイアス指標(Equal Opportunity / Demographic Parity 等)
  • Vertex AI Safety: 生成 AI の安全フィルタ
  • SynthID: AI 生成物への透かし
  • Model Cards: モデルの透明性ドキュメント
  • Data Cards: 訓練データの記述
Chapter 9

9 章 · 生成 AI と Gemini ファミリ


§9.1

Gemini と Vertex AI Studio

  • Gemini ファミリ: 2.5 Pro / 2.0 Flash / Nano
  • Imagen: 画像生成
  • Veo: 動画生成
  • Vertex AI Studio: プロンプト試作 + Tuning + 評価
  • Vertex AI Model Garden: 複数ベンダー基盤モデル(Llama / Mistral / Anthropic)
  • Function Calling: モデルにツール呼出させる
  • Grounding(検索ベース): ハルシネーション抑制
§9.2

RAG と Vertex AI Search

  • Vertex AI Search: マネージド全文 + ベクトル検索
  • Vertex AI Matching Engine: 高性能ベクトル検索
  • Embedding API: text-embedding / multimodal embedding
  • Hybrid Search: ベクトル + キーワード + リランキング
  • Prompt Optimizer: プロンプト最適化(Vertex AI 内蔵)
  • Context Caching: 長コンテキストの再利用
§9.3

Tuning と Distillation

  • Supervised Fine-tuning: ラベル付きデータで微調整
  • RLHF / RLAIF: 強化学習ベース
  • Distillation: 大モデル → 小モデル
  • Adapter / LoRA: 部分微調整
  • Hyperparameter Tuning(Vizier): ベイズ最適化
  • Co-training / Self-training: ラベルなしデータ活用
Chapter 10

10 章 · 受験対策の総まとめ


§10.1

範囲別チェックリスト

  1. 第 2 章: Vertex AI サブサービス全体像 / TPU v5e vs v5p / Spot VM
  2. 第 3 章: BQML 関数(ML.PREDICT / GENERATE_TEXT / GENERATE_EMBEDDING)
  3. 第 4 章: GCS / BigQuery / Spanner / Bigtable / Pub/Sub / Composer
  4. 第 5 章: TensorFlow Distribution Strategies / PyTorch/XLA / JAX
  5. 第 6 章: Vertex AI Pipelines(Kubeflow ベース)/ Components / Caching
  6. 第 7 章: Online vs Batch / Custom Container / Triton / TensorRT
  7. 第 8 章: Training-Serving Skew vs Prediction Drift / Explanations 3 種
  8. 第 9 章: Gemini / Imagen / Vertex AI Search / Function Calling / Grounding

試験当日のコツ

  • 50 〜 60 問 / 120 分 = 1 問 約 2 分。長文ケーススタディ問題は時間配分注意
  • Best Practice ベース の出題: 『この要件で最もコスト効率 ・ 性能 ・ セキュリティ的に最適なのは?』
  • サービス名の正確性: Vertex AI 統合前の旧名(AI Platform / Cloud Datalab 等)が混じる選択肢に注意
  • Coursera / Skill Boost の練習問題 を必ず受ける
§10.2

次のステップ

Professional ML Engineer 合格 → Professional Data Engineer で データ基盤側を強化、または Professional Cloud Architect で全体アーキテクトに進むのが王道。三大クラウド ML Pro を揃えるなら本サイトの[AWS MLA-C01](/certs/aws-ml-engineer)・[Azure AI-102](/certs/azure-ai-102)も。

GCP ML Engineer のキャリア活用

Professional ML Engineer は AI / ML エンジニアの上位職 で評価が高く、機械学習基盤の設計者 ・ MLOps エンジニア ・ AI ソリューションアーキテクト などへの転身に強い。Vertex AI 案件 ・ BQML 案件 ・ 大規模 LLM 学習 を扱う技術者として希少性が高い認定です。