2017年 09月 19日 ( 1 )

8章は読み物でした。
で、7章の実験の続き。やっぱり CIFAR-10 は全データを使わないとちゃんと学習できないのかな?
覚悟を決めてやってみた。頑張ったのはコンピュータですけどね。
ネットワークの拡張としては、
  • 畳み込み層を3層にしてチャンネル数を32にする
  • 全結合層のニューロン数を256にする
その前に、どれだけ学習させればよいのかわからないので、「詳解 ディープラーニング」に載っていた Early Stopping を導入しました。しばらく(今回は5エポック)の間、test accuracy の最高値を更新できなければ学習を打ち切ります。
左が畳み込み1で右が畳み込み3、上が全結合層100ニューロンで下が256です。
f0054075_13594527.pngf0054075_00060031.png

f0054075_15283483.pngf0054075_14003658.png

とにかく時間がかかって大変でした。特に右上の学習の進みがとっても遅かったようです。出口付近のネットが貧弱だとこうなるのかなぁ?もう少しいろいろ試してみたいけど…

[PR]
by tom01h | 2017-09-19 00:26 | 本・映画など | Trackback | Comments(0)