本文へスキップ
統計ロードマップ
Glossary

ReLU

読み: れる英: ReLU (Rectified Linear Unit)準1DL 基礎

定義

活性化関数 $\max(0, x)$。負の領域で勾配 0、正の領域で勾配 1。DL で勾配消失を緩和して学習を成功させた立役者。

関連教材

関連する教科書の節を見る →

関連する用語(DL 基礎)