鬼城論

プロフェッショナルを目指すため日々の格闘をつづる

ゼロから作るDeep Learning

A Theoretically Grounded Application of Dropout in Recurrent Neural Networks

かの有名なDropout。 ノードをランダムに消して学習を行うといいよーってな話。 大量に解説ある olanleed.hatenablog.com

Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

入力データの値が非常に飛び飛びだと学習に影響を 及ぼすので、正規化しようねという話。 日本語の解説は大量に見つかる yusuke-ujitoko.hatenablog.com

Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification

所謂Heの初期値。 ReLU関数を使うときの、重みの初期値をXXXXの範囲内 にするといいよってなことが書かれている。 [内容] ・PReRUの紹介 ・Heの初期値 https://speakerdeck.com/satuma777/lun-wen-shao-jie-delving-deep-into-rectifiers-surpassing-human-l…