ゼロから作るDeep Learning本をやる(1)
3章を実践。
3層のニューラルネットワークを利用して、大規模な手書きデータ(MNIST)を分類した。
本の結果通り分類精度93.52%になった。うれしい。
ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装
- 作者: 斎藤康毅
- 出版社/メーカー: オライリージャパン
- 発売日: 2016/09/24
- メディア: 単行本(ソフトカバー)
- この商品を含むブログ (3件) を見る
聞いたことない用語(関数名)が多かったので3章までの専門用語をまとめる。
課題、利用方法 | アルゴリズム | 中間層での活性化関数 | 出力層での活性化関数 |
---|---|---|---|
論理回路(真理値表) | パーセプトロン | step関数 | 恒等関数 |
回帰問題 | ニューラルネットワーク | シグモイド関数 | 恒等関数 |
分類問題 | ニューラルネットワーク | シグモイド関数 | ソフトマックス関数 |
???まだ | ???まだ | ReLU | ???まだ |
あとはバッチ処理で効率化の部分はpython節が炸裂していたように感じた。
とにかく、主処理部分をちょっと変えただけで、100個のデータを一度に処理できるようになった。感動。
バッチ処理での効果は7倍ぐらい処理が早くなっていた。
バッチ処理なし
実行時間:434308micro sec
Accuracy: 0.9352
バッチ処理あり
実行時間:60540micro sec
Accuracy: 0.9352
あとはPyCharmでPLPがうまくインポートできなかったので代わりにPillowを使った。
コードは同じでいけた。
明日は4章やる。