ウニ’s blog

勉強した結果を書いていきます

ゼロから作るDeep Learning本をやる(1)

3章を実践。
3層のニューラルネットワークを利用して、大規模な手書きデータ(MNIST)を分類した。
本の結果通り分類精度93.52%になった。うれしい。


聞いたことない用語(関数名)が多かったので3章までの専門用語をまとめる。

課題、利用方法 アルゴリズム 中間層での活性化関数 出力層での活性化関数
論理回路(真理値表) パーセプトロン step関数 恒等関数
回帰問題 ニューラルネットワーク シグモイド関数 恒等関数
分類問題 ニューラルネットワーク シグモイド関数 ソフトマックス関数
???まだ ???まだ ReLU ???まだ

あとはバッチ処理で効率化の部分はpython節が炸裂していたように感じた。
とにかく、主処理部分をちょっと変えただけで、100個のデータを一度に処理できるようになった。感動。
バッチ処理での効果は7倍ぐらい処理が早くなっていた。

バッチ処理なし
実行時間:434308micro sec
Accuracy: 0.9352

バッチ処理あり
実行時間:60540micro sec
Accuracy: 0.9352

あとはPyCharmでPLPがうまくインポートできなかったので代わりにPillowを使った。
コードは同じでいけた。
明日は4章やる。