Processing math: 100%

Dropout層は学習時と予測時にforwardの処理が異なる。ここでは学習時と予測時では処理がどう異なるかは書かずに、メジャーどころのライブラリではどのように実装されているかを簡単に調べたことをメモ書き程度に書く。処理がどう異なるかに興味がある人は参考にある論文を読むと分かりやすい。

続きを読む

個人的にはプログラミングの勉強は写経が一番頭に入る気がする、ということで読んでいた。 気になったところ データに正規分布を仮定したときのナイーブベイズ分類器について。 平均をμ、分散をσ2としたときの正規分布は p(x;μ,σ2)=12πσ2{exp(xμ)22σ2} これのlogをとると、 logp(x;μ,σ2)=log{12πσ2{exp(xμ)22σ2}} =12log(2πσ2)(xμ)22σ2 ナイーブベイズ分類器の対数尤度関数は、データがK次元ベクトルで表現されていて、それがN個あるとすると、 logL(X,Y;μ,σ)=log(Nn=1p(xn,yn)) =log(Nn=1p(yn)p(xn|yn)) =Nn=1logp(yn)+Nn=1logp(xn|yn) =Nn=1logp(yn)+Nn=1Kk=1logp(xnk|yn) =Nn=1logp(yn)+Nn=1Kk=1{12log(2πσ2ynk)(xnkμynk)22σ2ynk}

続きを読む

Practical Machine Learning Tricks

Practical machine learning tricks from the KDD 2011 best industry paper

上のブログはKDD 2011のindustry tracksでbest paperを受賞した論文を紹介しているのだけど、その紹介している内容がとても参考になったので日本語でまとめなおしている。間違った解釈をしていることがおおいにありうるので、英語が読める人は元のブログを読むことをおすすめします。

続きを読む

プロフィール画像

Takuya Makino

自然言語処理の研究開発に従事しています。自然言語処理に関する研究から製品化に向けた開発に興味を持っています。本ブログでは自然言語処理、機械学習、プログラミング、日々の生活について扱います。詳細はプロフィールを御覧ください。

自然言語処理の研究開発に従事

Kanagawa, Japan