将棋AIで学ぶディープラーニング on Mac and Google Colab 第9章
学習テクニック
SGD
$$ W^{t+1} ← W^t - lr\frac{\partial E(W^t)}{\partial W^t} $$
lr = 0.01
Momentum SGD
$$ W^{t+1} ← W^t - lr\frac{\partial E(W^t)}{\partial W^t} + αΔW^t $$
lr = 0.01
途中で学習が止まった。lrが大きすぎたか。(本ではlr = 0.005にしている。)
Batch Normalization
lr = 0.01
Batch Normalizationすることでaccuracyが向上した。
Batch Normalizationの詳細は本には書いていないので下記記事を見て勉強した。
https://qiita.com/omiita/items/01855ff13cc6d3720ea4
・バッチノームは、ミニバッチごと同一チャネルごとで、活性化関数を通す前の値を平均0,分散1に正規化するもの。
・バッチノームで改善する理由は不明。
対局動画
https://youtu.be/9YBImGLzm1w
バッチノーム弱すぎ。
Author And Source
この問題について(将棋AIで学ぶディープラーニング on Mac and Google Colab 第9章), 我々は、より多くの情報をここで見つけました https://qiita.com/kazunoriri/items/74c800bfa48cba34bb1c著者帰属:元の著者の情報は、元のURLに含まれています。著作権は原作者に属する。
Content is automatically searched and collected through network algorithms . If there is a violation . Please contact us . We will adjust (correct author information ,or delete content ) as soon as possible .