ゼロから作るDeepLearning本をやる(5)
5章の最後、誤差逆伝播法での学習を実施した。結果は以下。
ハイパーパラメータは以下で実施
- ミニバッチ:100 (60,000の訓練データからランダム抽出)
- 学習回数(イテレーション):10,000
- 1エポック:600回毎
- 学習率 0.1
学習結果は以下のようになった
学習データへの認識精度,テストデータへの認識精度
train acc, test acc | 0.153016666667,0.1589 train acc, test acc | 0.905166666667,0.9099 train acc, test acc | 0.92575,0.9275 train acc, test acc | 0.938166666667,0.9372 train acc, test acc | 0.946966666667,0.9452 train acc, test acc | 0.95265,0.9488 train acc, test acc | 0.95745,0.9546 train acc, test acc | 0.96135,0.9584 train acc, test acc | 0.966283333333,0.9608 train acc, test acc | 0.967183333333,0.9623 train acc, test acc | 0.970066666667,0.9633 train acc, test acc | 0.972366666667,0.9646 train acc, test acc | 0.974516666667,0.9671 train acc, test acc | 0.975683333333,0.9679 train acc, test acc | 0.977233333333,0.9692 train acc, test acc | 0.977866666667,0.9705 train acc, test acc | 0.979283333333,0.9693 実行時間:52sec
イテレーション10,000なのに52sec!
数値微分での学習に比べていかに高速に済むのかが分かった。素晴らしい!
あとは6章の予習したけど、pythonでグラフ表現する、ってことに慣れとくと良いと感じた。
処理の途中など様々なタイミングで発生するデータを分析をするため、
グラフで"よい"とか"良くない"を判断することが多いからだ。
あとはぱらっと最後まで流し読みしたけど、7章が一番の山場かなと感じる。
6章はサラッとクリアしたい。たのむ・・・。
ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装
- 作者: 斎藤康毅
- 出版社/メーカー: オライリージャパン
- 発売日: 2016/09/24
- メディア: 単行本(ソフトカバー)
- この商品を含むブログ (3件) を見る