本文へスキップ
統計ロードマップ
Glossary

知識蒸留

読み: ちしきじょうりゅう英: knowledge distillation準1DL 実装

定義

大きい教師モデルの出力(soft target)を学習目標として、小さい生徒モデルを学習させる手法。BERT → DistilBERT が代表例。

関連教材

関連する教科書の節を見る →

関連する用語(DL 実装)