ML の実践: 画像分類

過学習の防止

他の ML モデルと同様に、畳み込みニューラル ネットワークをトレーニングする際の主な懸念事項は過学習です。これは、トレーニング データの詳細に合わせてモデルをチューニングしすぎて、新しい例に一般化できないことを意味します。CNN の構築時に過剰適合を防ぐための 2 つの手法は次のとおりです。

  • データ拡張: 既存の画像にランダムな変換を実行して新しいバリエーションのセットを作成することで、トレーニング サンプルの多様性と数を人為的に高めます(図 7 を参照)。データ拡張は、元のトレーニング データセットが比較的小さい場合に特に役立ちます。
  • ドロップアウト正規化: トレーニング勾配ステップ中にニューラル ネットワークからユニットをランダムに削除します。

1 匹の犬の画像に対するデータ拡張の図。ランダムな変換によって 9 つの新しい画像が生成されます。 図 7. 1 匹の犬の画像に対するデータ拡張(Kaggle で入手可能な 「犬と猫」データセットから抜粋)。: トレーニング セットの元の犬の画像。: ランダムな変換を使用して元の画像から生成された 9 つの新しい画像。