本文へスキップ
統計ロードマップ
Glossary

MoE

読み: えむおーいー英: Mixture of Experts1深層学習

定義

複数の「エキスパート」サブネットワークから条件に応じて少数だけを活性化させる Transformer アーキテクチャ。Mixtral・DeepSeek-V3 などで採用。

関連する用語(深層学習)