ホーム›用語集›ReLUGlossaryReLU☆読み: れる英: ReLU (Rectified Linear Unit)準1級DL 基礎定義活性化関数 $\max(0, x)$。負の領域で勾配 0、正の領域で勾配 1。DL で勾配消失を緩和して学習を成功させた立役者。関連教材関連する教科書の節を見る →関連する用語(DL 基礎)順伝播じゅんでんぱ誤差逆伝播法ごさぎゃくでんぱほうSoftmaxそふとまっくす勾配消失問題こうばいしょうしつもんだい残差接続ざんさせつぞくAdamあだむポアソン分布ぽあそんぶんぷ指数分布しすうぶんぷ多変量正規分布たへんりょうせいきぶんぷベイズの定理べいずのていり事後分布じごぶんぷ共役分布きょうやくぶんぷ← 用語集トップへサイト内を検索