ホーム›用語集›MoEGlossaryMoE☆読み: えむおーいー英: Mixture of Experts1級深層学習定義複数の「エキスパート」サブネットワークから条件に応じて少数だけを活性化させる Transformer アーキテクチャ。Mixtral・DeepSeek-V3 などで採用。関連する用語(深層学習)創発的能力そうはつてきのうりょく指数型分布族しすうがたぶんぷぞく十分統計量じゅうぶんとうけいりょう最尤推定さいゆうすいていフィッシャー情報量ふぃっしゃーじょうほうりょうクラメル・ラオの下限くらめる・らおのかげんデルタ法でるたほうネイマン・ピアソン補題ねいまん・ぴあそんほだい尤度比検定ゆうどひけんていEM アルゴリズムいーえむあるごりずむMCMCえむしーえむしーブートストラップぶーとすとらっぷ← 用語集トップへサイト内を検索