KDL BLOG

【第3回 Dropout導入編】PyTorchとCIFAR-10で学ぶCNNの精度向上

株式会社神戸デジタル・ラボ DataIntelligenceチームの原口です。 前回は、構築したモデルをグラフ・正答率・混同行列を用いて評価しましたが、構築したモデルが途中から過学習傾向にあることが分かりました。 過学習とは、AIモデルが学習データに適合しすぎることで、未知のデータに対して精度が低下してしまう状態を指します。前回は過学習の対策として、過学習に転じた段階で学習をストップする手法をご紹介しました。しかし、この手法はモデルの汎化性能が最も高くなった段階で学習を止めるもので、過学習の根本的な解決方法ではありませんでした。 そこで今回は、AIモデルにDropoutという手法を適応することで過学習しにくいモデルに変更し、さらなる精度向上を図ります! DIblog_20220415_2.png (つづきは、ブログ「神戸のデータ活用塾!KDL Data Blog」へ) hatena.png