本文へスキップ
統計ロードマップ
Glossary

Self-Attention

読み: せるふあてんしょん英: self-attention準1DL モデル

定義

入力系列の各位置が他のすべての位置を参照する仕組み。$\mathrm{softmax}(QK^\top/\sqrt{d_k})V$ で計算。Transformer の中核。

関連教材

関連する教科書の節を見る →

関連する用語(DL モデル)