キカガク(KIKAGAKU)で「畳み込みニューラルネットワークの精度向上」を学ぶ

Photo by Owen Beard on Unsplash

今回は「畳み込みニューラルネットワークの精度向上 - KIKAGAKU」を学ぶ。

学習内容

ベースモデルを作成する

  1. データセットの準備
  2. モデルの定義と学習
  3. 結果の確認

最適化アルゴリズム

  1. SGD (Stochastic Gradient Descent: 確率的勾配降下法)
  2. Momentum SGD
  3. RMSprop
  4. Adam (Adaptive moment estimation)

過学習対策

  1. ドロップアウト
  2. 正則化 (Regularization)
  3. 早期終了
  4. バッチノーマリゼーション

活性化関数

ソースコードと実行結果

ベースモデル


Fig.1 データセット

Fig.2 Accuracy

Fig.3 Loss




過学習対策(ドロップアウト)


Fig.4 Accuracy

Fig.5 Loss




過学習対策(正則化)


Fig.6 Accuracy

Fig.7 Loss



過学習対策(早期終了)


Fig.8 Accuracy

Fig.9 Loss




過学習対策(バッチノーマリゼーション)



Fig.10 Accuracy


Fig.11 Loss




活性化関数



Fig.12 活性化関数



Posted in  on 6/07/2020 by rteak |