ホーム›用語集›Flash AttentionGlossaryFlash Attention☆読み: ふらっしゅあてんしょん英: Flash Attention1級効率的アーキテクチャ定義Dao et al. 2022。GPU メモリ階層を意識した Attention 実装で、数学的に同一のまま 2〜4 倍高速化。現代の LLM 学習・推論で標準採用。関連教材関連する教科書の節を見る →関連する用語(効率的アーキテクチャ)Mambaまんば指数型分布族しすうがたぶんぷぞく十分統計量じゅうぶんとうけいりょう最尤推定さいゆうすいていフィッシャー情報量ふぃっしゃーじょうほうりょうクラメル・ラオの下限くらめる・らおのかげんデルタ法でるたほうネイマン・ピアソン補題ねいまん・ぴあそんほだい尤度比検定ゆうどひけんていEM アルゴリズムいーえむあるごりずむMCMCえむしーえむしーブートストラップぶーとすとらっぷ← 用語集トップへサイト内を検索