Dropout層は学習時と予測時にforwardの処理が異なる。ここでは学習時と予測時では処理がどう異なるかは書かずに、メジャーどころのライブラリではどのように実装されているかを簡単に調べたことをメモ書き程度に書く。処理がどう異なるかに興味がある人は参考にある論文を読むと分かりやすい。

個人的にはプログラミングの勉強は写経が一番頭に入る気がする、ということで読んでいた。
気になったところ データに正規分布を仮定したときのナイーブベイズ分類器について。 平均をμ、分散をσ2としたときの正規分布は
p(x;μ,σ2)=1√2πσ2{exp−(x−μ)22σ2}
これのlogをとると、
logp(x;μ,σ2)=log{1√2πσ2{exp−(x−μ)22σ2}} =−12log(2πσ2)−(x−μ)22σ2
ナイーブベイズ分類器の対数尤度関数は、データがK次元ベクトルで表現されていて、それがN個あるとすると、 logL(X,Y;μ,σ)=log(N∏n=1p(xn,yn)) =log(N∏n=1p(yn)p(xn|yn)) =N∑n=1logp(yn)+N∑n=1logp(xn|yn) =N∑n=1logp(yn)+N∑n=1K∑k=1logp(xnk|yn) =N∑n=1logp(yn)+N∑n=1K∑k=1{−12log(2πσ2ynk)−(xnk−μynk)22σ2ynk}
Practical machine learning tricks from the KDD 2011 best industry paper
上のブログはKDD 2011のindustry tracksでbest paperを受賞した論文を紹介しているのだけど、その紹介している内容がとても参考になったので日本語でまとめなおしている。間違った解釈をしていることがおおいにありうるので、英語が読める人は元のブログを読むことをおすすめします。