ホーム›用語集›Self-AttentionGlossarySelf-Attention☆読み: せるふあてんしょん英: self-attention準1級DL モデル定義入力系列の各位置が他のすべての位置を参照する仕組み。$\mathrm{softmax}(QK^\top/\sqrt{d_k})V$ で計算。Transformer の中核。関連教材関連する教科書の節を見る →関連する用語(DL モデル)CNNしーえぬえぬプーリングぷーりんぐLSTMえるえすてぃーえむBERTばーとGPTじーぴーてぃーVAEぶいえーいーGANがん拡散モデルかくさんもでるポアソン分布ぽあそんぶんぷ指数分布しすうぶんぷ多変量正規分布たへんりょうせいきぶんぷベイズの定理べいずのていり← 用語集トップへサイト内を検索