Google Cloud Professional Machine Learning Engineer 教科書
**Google Cloud Professional Machine Learning Engineer** は、Google Cloud 認定の **Professional レベル** で、**ML パイプラインの設計 ・ 構築 ・ デプロイ ・ 運用** ができるエンジニアを認定する高度試験です。**AWS ML Engineer Associate(MLA-C01)・ Azure AI Engineer(AI-102)** と並ぶ三大クラウド ML 認定の 1 つで、**Vertex AI ・ Gemini ・ BigQuery ML ・ TensorFlow / PyTorch on GCP ・ Kubeflow** など Google Cloud のフル AI スタックを扱います。本教科書は出題範囲を 10 章で体系的にカバーします。
目次
- 第 1 章 · GCP ML Engineer ─ 試験の全体像試験形式・出題範囲・他 GCP 認定との位置付けを整理します。
- 第 2 章 · Vertex AI のフル機能Vertex AI のサブサービスを Professional レベルで整理します。
- 第 3 章 · BigQuery ML と SQL MLSQL から ML を扱える BQML を整理します。
- 第 4 章 · データエンジニアリングGoogle Cloud の主要データサービスを ML 視点で整理します。
- 第 5 章 · TensorFlow / PyTorch on GCPGCP での DL フレームワーク活用を整理します。
- 第 6 章 · MLOps と Vertex AI PipelinesKubeflow Pipelines をベースとした GCP の MLOps を整理します。
- 第 7 章 · デプロイとサービングオンライン / バッチ予測 ・ スケーリングを整理します。
- 第 8 章 · Model Monitoring とドリフトVertex AI Model Monitoring の仕組みを整理します。
- 第 9 章 · 生成 AI と Gemini ファミリGemini ・ Vertex AI Studio ・ RAG を整理します。
- 第 10 章 · 受験対策の総まとめ範囲別チェックリストと試験当日の戦略を整理します。
第 1 章 · GCP ML Engineer ─ 試験の全体像
試験の位置付け
Professional ML Engineer は GCP 認定の Professional レベル に位置する高度認定。Generative AI Leader(Foundational) より上位で、ML パイプラインの設計者 ・ 実装者 を対象とします。Vertex AI を中心に、TensorFlow / PyTorch / Kubeflow / BigQuery ML を組合せた本格的な ML システムを設計できる力を測ります。
- 主催: Google Cloud
- 形式: オンライン監督受験 or テストセンター
- 問題数 / 時間: 50 〜 60 問 / 120 分
- 回答方式: 選択式(単一 / 複数)+ ケーススタディ
- 合格スコア: 公開なし(参考: 約 70%)
- 有効期限: 2 年(再認定が必要)
- 受験料: 200 USD(参考)
- 前提知識: ML / Python / SQL / Cloud Architecture の実務 3 年以上推奨
GCP 認定の階層
- Foundational: Cloud Digital Leader / Generative AI Leader
- Associate: Associate Cloud Engineer / Associate Data Practitioner
- Professional: Cloud Architect / Data Engineer / ML Engineer(本資格) / Cloud Developer / Security / DevOps / Network
出題ドメインと推奨学習プラン
公式試験ガイドのドメイン
- Architecting low-code AI solutions(約 13%): AutoML / BQML / 学習済 API
- Collaborating within and across teams to manage data and models(約 14%): MLOps / 共同作業
- Scaling prototypes into ML models(約 18%): プロトタイプ → 本番モデル化
- Serving and scaling models(約 20%): デプロイ ・ オンライン / バッチ予測 ・ スケーリング
- Automating and orchestrating ML pipelines(約 22%): Vertex AI Pipelines / Kubeflow / Cloud Composer
- Monitoring AI solutions(約 13%): Model Monitoring / ドリフト検出 ・ 再学習
200 〜 300 時間プラン
- Month 1: GCP 基礎 + ML 基礎(本サイトの[Generative AI Leader 教科書](/certs/gcp-gen-ai-leader/textbook)で土台)
- Month 2: Vertex AI フル機能(AutoML / Custom Training / Pipelines / Endpoints)
- Month 3: BigQuery ML + データエンジニアリング
- Month 4: TensorFlow / PyTorch on GCP + Kubeflow
- Month 5: MLOps + Model Monitoring + 模擬試験
Professional レベルは 実機での Vertex AI 操作経験 が前提。Google Cloud Skills Boost(無料)+ 300 USD クレジット付き無料アカウント で本格的にハンズオンするのが王道。Coursera のスペシャライゼーション も効果的です。
第 2 章 · Vertex AI のフル機能
Vertex AI の主要コンポーネント
- Vertex AI Workbench: マネージド Jupyter(JupyterLab + GCP 統合)
- Vertex AI Studio: 生成 AI のプロンプト ・ Tuning ・ 評価
- Vertex AI Pipelines: Kubeflow ベースの ML パイプライン
- Vertex AI Feature Store: 特徴量管理(Online + Offline serving)
- Vertex AI Model Registry: モデルバージョン管理
- Vertex AI Endpoints: オンライン推論
- Vertex AI Batch Predictions: バッチ推論
- Vertex AI Model Monitoring: ドリフト検出
- Vertex AI Experiments: 実験管理(MLflow 互換)
- Vertex AI Tensorboard: 学習可視化
- Vertex AI Vizier: ベイズ最適化サービス
- Vertex AI Explanations: 説明可能性(XRAI / Integrated Gradients / Sampled Shapley)
- Vertex AI Matching Engine: ベクトル類似度検索
- Vertex AI Agent Builder: ノーコードエージェント
AutoML と Custom Training
- AutoML Tables: 表データの分類 / 回帰 / 時系列予測
- AutoML Vision: 画像分類 ・ 物体検出
- AutoML Text: テキスト分類 ・ エンティティ抽出 ・ 感情分析
- AutoML Video: 動画分類 ・ オブジェクトトラッキング
- Custom Training: TensorFlow / PyTorch / scikit-learn / XGBoost / Custom コンテナ
- Pre-built Containers: TF / PyTorch の標準環境
- Custom Container: Docker 任意イメージ
- Hyperparameter Tuning(Vizier): ベイズ最適化
- Distributed Training: Multi-worker / Parameter Server / Reduction Server
計算リソースとコスト
- Machine Types: n1 / n2 / e2 / a2(GPU)/ tpu-v3, v4, v5
- TPU(Tensor Processing Unit): Google 自家製 AI チップ、TF / PyTorch / JAX 対応
- TPU v5e: 推論 ・ 中規模学習向け、コスト効率重視
- TPU v5p: 大規模学習向け、生成 AI などで使用
- Spot VM: 中断耐性ある学習で 60 〜 80% 割引
- Committed Use Discounts(CUD): 1 / 3 年予約割引
- Reserved Capacity: 計画的キャパシティ
- Custom Service Account: 最小権限の原則
第 3 章 · BigQuery ML と SQL ML
BigQuery ML(BQML)の特徴
BQML は SQL のみで ML を扱える Google 独自の機能。データウェアハウス内で完結 し、データの移動が不要なため、業務分析者がそのまま ML を始められる 利点が大きい。
- サポートモデル: 線形回帰 / ロジスティック / k-means / 行列分解 / ARIMA / Boosted Tree / DNN / Transformer / AutoML / Vertex 統合 / インポートモデル
- ML.PREDICT: 学習済モデルでの推論
- ML.GENERATE_TEXT: BQ から Gemini を呼出
- ML.GENERATE_EMBEDDING: ベクトル化
- ML.UNDERSTAND_TEXT / ML.TRANSLATE / ML.ANNOTATE_IMAGE: NLP / 翻訳 / 画像
- Remote model: Vertex AI モデルを BQML で呼出
- Vector Search: ベクトル類似度検索
BQML の使いどころ
- プロトタイピング: SQL アナリストが ML を試作
- 大規模データの学習: BQ 上で並列学習
- Embedding 生成: 大量テキスト → ベクトル化
- バッチ推論: 数十億行へ ML.PREDICT を一発実行
- ハイブリッド構成: BQML(プロトタイプ)→ Vertex AI(本番化)が王道
第 4 章 · データエンジニアリング
ストレージ ・ DB
- Cloud Storage(GCS): オブジェクトストレージ、ML データレイクの中核
- BigQuery: マネージド DWH、列指向 + サーバレス
- Cloud SQL: マネージド MySQL / PostgreSQL / SQL Server
- Spanner: グローバル分散 RDB
- Bigtable: NoSQL ワイドカラム、IoT / 時系列
- Firestore: ドキュメント型 NoSQL
- AlloyDB: PostgreSQL 互換高性能 DB
ETL ・ オーケストレーション
- Cloud Dataflow: Apache Beam ベースのストリーム + バッチ ETL
- Cloud Dataproc: Hadoop / Spark マネージド
- Cloud Composer: マネージド Apache Airflow
- Cloud Data Fusion: GUI ベース ETL(CDAP ベース)
- Cloud Pub/Sub: メッセージング ・ ストリーミング
- Cloud Run / Cloud Functions: サーバレスコンピュート
- Workflows: ステートマシン形式のサービス連携
- Eventarc: イベント駆動連携
Dataplex とデータガバナンス
- Dataplex: マルチクラウド データガバナンス + リネージ
- Data Catalog: メタデータカタログ
- Cloud DLP(Sensitive Data Protection): 個人情報自動検出
- IAM + Service Account: 最小権限
- VPC Service Controls: ネットワーク境界
- CMEK(Customer-Managed Encryption Keys): 顧客管理鍵
第 5 章 · TensorFlow / PyTorch on GCP
TensorFlow on GCP
- TensorFlow Distribution Strategies: MirroredStrategy / MultiWorkerMirroredStrategy / TPUStrategy / ParameterServerStrategy
- tf.data: 効率的なデータパイプライン
- TFRecord: 効率的なバイナリ形式
- TF Hub: 学習済モデル
- TFX(TensorFlow Extended): 本番 ML パイプライン
- Keras: 高レベル API
- Saved Model 形式: GCP デプロイの標準
- TFLite: モバイル ・ エッジ
PyTorch on GCP
- PyTorch Distributed: DDP / FSDP / Pipeline Parallel
- PyTorch on TPU: PyTorch/XLA で TPU 利用
- TorchServe: 推論サーバ
- TorchScript: 本番デプロイ向けシリアライズ
- Hugging Face Integration: Transformers ライブラリ
- PyTorch Lightning: 学習ループの抽象化
- ONNX Export: フレームワーク間相互運用
JAX と分散学習
- JAX: 関数型 + XLA、Google 内部で多用
- JAX on TPU: TPU で最高性能
- Flax / Haiku: JAX の高レベル API
- Ray + JAX: 分散ハイパーパラメータ探索
- MaxText / MaxDiffusion: Google 製の大規模 LLM / 拡散モデル学習フレームワーク
第 6 章 · MLOps と Vertex AI Pipelines
Vertex AI Pipelines
Vertex AI Pipelines は Kubeflow Pipelines + TFX をベースとしたサーバレス ML パイプラインサービス。Component(部品) を組合わせてワークフローを定義し、Pipeline Definition(YAML) にコンパイルしてサーバレス実行されます。
- KFP DSL: Python で Component を定義 + Pipeline を組立
- Pre-built Components: Google が提供する標準部品
- Custom Component: 任意 Docker イメージで独自処理
- Pipeline Run: 実行インスタンス
- Pipeline Schedule: 定期実行
- Caching: 同じ入力のステップは再実行をスキップ
- Artifact Lineage: データ → モデルの来歴追跡
実験管理とトレーサビリティ
- Vertex AI Experiments: ML 実験の比較管理
- Vertex AI Tensorboard: 学習指標の可視化
- MLflow Integration: オープンソース MLflow との互換
- Cloud Source Repositories / GitHub: コード管理
- Cloud Build: コンテナ自動ビルド
- Artifact Registry: コンテナイメージレジストリ
- Cloud Deploy: 継続的デリバリ
モデル昇格とガバナンス
- Vertex AI Model Registry: モデルバージョン管理
- Model Aliases: dev / staging / prod 等のラベル
- Approval Workflow: Cloud Build / Cloud Deploy で承認制御
- Endpoint Traffic Splitting: 複数モデルのトラフィック分散
- Shadow Mode: 本番影響なしで新モデル試験
- A/B テスト: トラフィック比率を段階的に
第 7 章 · デプロイとサービング
推論オプション
1. Online Prediction: ms 級のリアルタイム推論。Endpoint 経由
2. Batch Prediction: 大量データの一括処理(GCS への CSV 出力など)
3. Online Serving with Co-located Feature Store: 低遅延 + 特徴量取得統合
4. Edge / On-device: TFLite で IoT / モバイル推論
- Auto-scaling: トラフィック量で自動スケール
- Min replicas / Max replicas: スケール範囲設定
- GPU / TPU 推論: 高スループット用
- Private Endpoint: VPC 内のみ
- Custom Serving Container: 任意の推論サーバ
- Optimized Tensorflow Runtime: GCP 最適化版
コンテナとモデル形式
- Pre-built Containers: TensorFlow / PyTorch / scikit-learn / XGBoost
- Custom Container: HTTP サーバとして提供
- Saved Model(TF)・ TorchScript / ONNX: 標準モデル形式
- NVIDIA Triton: マルチフレームワーク推論サーバ
- TensorRT: NVIDIA GPU 推論最適化
- Optimized TensorFlow Runtime(OTR): GCP 最適化
コスト最適化
- Spot VM: 学習で 60 〜 80% 割引(中断あり)
- Reduction Server: 分散学習の集約専用 VM、安価
- Committed Use Discounts: 1 / 3 年予約
- Right Sizing: 不要に大きい Machine Type を見直し
- Min replicas = 0: 不定期トラフィック向け
- Cold Start: 起動時の遅延、Min replicas で吸収
- Distillation / Quantization: モデル軽量化
第 8 章 · Model Monitoring とドリフト
Vertex AI Model Monitoring
Training-Serving Skew: 学習データ vs 推論データの分布差。学習時のスキーマと比較
Prediction Drift: 推論データの時間経過での分布変化。直近期間と過去期間を比較
- 統計指標: KL Divergence / Jensen-Shannon / L-infinity / Chi-squared
- Categorical Features: 分布変化の検出
- Numerical Features: 統計量の変化
- Sample Rate: 全推論の何 % をサンプル
- Alerting: Cloud Monitoring と統合
- Re-training Trigger: ドリフト検出 → 再学習自動起動
Vertex AI Explanations
- XRAI: 画像 ・ 動画向け説明
- Integrated Gradients: NN ベース、勾配ベース
- Sampled Shapley: ツリー / 表データ向け
- Feature Importance: グローバル + ローカル
- Counterfactual Explanations: 反実仮想
- Online Explanations: 推論時のリアルタイム説明
責任ある AI
- Google AI 原則 7 つ: 公平性 / 偏見回避 / 安全性 / 説明責任 / プライバシー / 科学的卓越性 / 原則に沿う用途
- Fairness Indicators: バイアス指標(Equal Opportunity / Demographic Parity 等)
- Vertex AI Safety: 生成 AI の安全フィルタ
- SynthID: AI 生成物への透かし
- Model Cards: モデルの透明性ドキュメント
- Data Cards: 訓練データの記述
第 9 章 · 生成 AI と Gemini ファミリ
Gemini と Vertex AI Studio
- Gemini ファミリ: 2.5 Pro / 2.0 Flash / Nano
- Imagen: 画像生成
- Veo: 動画生成
- Vertex AI Studio: プロンプト試作 + Tuning + 評価
- Vertex AI Model Garden: 複数ベンダー基盤モデル(Llama / Mistral / Anthropic)
- Function Calling: モデルにツール呼出させる
- Grounding(検索ベース): ハルシネーション抑制
RAG と Vertex AI Search
- Vertex AI Search: マネージド全文 + ベクトル検索
- Vertex AI Matching Engine: 高性能ベクトル検索
- Embedding API: text-embedding / multimodal embedding
- Hybrid Search: ベクトル + キーワード + リランキング
- Prompt Optimizer: プロンプト最適化(Vertex AI 内蔵)
- Context Caching: 長コンテキストの再利用
Tuning と Distillation
- Supervised Fine-tuning: ラベル付きデータで微調整
- RLHF / RLAIF: 強化学習ベース
- Distillation: 大モデル → 小モデル
- Adapter / LoRA: 部分微調整
- Hyperparameter Tuning(Vizier): ベイズ最適化
- Co-training / Self-training: ラベルなしデータ活用
第 10 章 · 受験対策の総まとめ
範囲別チェックリスト
- 第 2 章: Vertex AI サブサービス全体像 / TPU v5e vs v5p / Spot VM
- 第 3 章: BQML 関数(ML.PREDICT / GENERATE_TEXT / GENERATE_EMBEDDING)
- 第 4 章: GCS / BigQuery / Spanner / Bigtable / Pub/Sub / Composer
- 第 5 章: TensorFlow Distribution Strategies / PyTorch/XLA / JAX
- 第 6 章: Vertex AI Pipelines(Kubeflow ベース)/ Components / Caching
- 第 7 章: Online vs Batch / Custom Container / Triton / TensorRT
- 第 8 章: Training-Serving Skew vs Prediction Drift / Explanations 3 種
- 第 9 章: Gemini / Imagen / Vertex AI Search / Function Calling / Grounding
試験当日のコツ
- 50 〜 60 問 / 120 分 = 1 問 約 2 分。長文ケーススタディ問題は時間配分注意
- Best Practice ベース の出題: 『この要件で最もコスト効率 ・ 性能 ・ セキュリティ的に最適なのは?』
- サービス名の正確性: Vertex AI 統合前の旧名(AI Platform / Cloud Datalab 等)が混じる選択肢に注意
- Coursera / Skill Boost の練習問題 を必ず受ける
次のステップ
Professional ML Engineer 合格 → Professional Data Engineer で データ基盤側を強化、または Professional Cloud Architect で全体アーキテクトに進むのが王道。三大クラウド ML Pro を揃えるなら本サイトの[AWS MLA-C01](/certs/aws-ml-engineer)・[Azure AI-102](/certs/azure-ai-102)も。
Professional ML Engineer は AI / ML エンジニアの上位職 で評価が高く、機械学習基盤の設計者 ・ MLOps エンジニア ・ AI ソリューションアーキテクト などへの転身に強い。Vertex AI 案件 ・ BQML 案件 ・ 大規模 LLM 学習 を扱う技術者として希少性が高い認定です。