過学習の防止
他の ML モデルと同様に、畳み込みニューラル ネットワークをトレーニングする際の主な懸念事項は過学習です。これは、トレーニング データの詳細に合わせてモデルをチューニングしすぎて、新しい例に一般化できないことを意味します。CNN の構築時に過剰適合を防ぐための 2 つの手法は次のとおりです。
- データ拡張: 既存の画像にランダムな変換を実行して新しいバリエーションのセットを作成することで、トレーニング サンプルの多様性と数を人為的に高めます(図 7 を参照)。データ拡張は、元のトレーニング データセットが比較的小さい場合に特に役立ちます。
- ドロップアウト正規化: トレーニング勾配ステップ中にニューラル ネットワークからユニットをランダムに削除します。
図 7. 1 匹の犬の画像に対するデータ拡張(Kaggle で入手可能な 「犬と猫」データセットから抜粋)。左: トレーニング セットの元の犬の画像。右: ランダムな変換を使用して元の画像から生成された 9 つの新しい画像。