機器學習實務:圖片分類

避免過度配適

與任何機器學習模型一樣,訓練卷積神經網路時,主要須注意過度配適問題:模型會根據訓練資料的特定內容進行調整,因此無法推廣至新示例。以下是兩種避免過度擬合 CNN 的做法:

  • 資料擴增:對現有圖片執行隨機轉換,藉此人為地增加訓練範例的多樣性和數量,以建立一組新的變化版本 (請見圖 7)。當原始訓練資料集較小時,資料擴增功能就特別實用。
  • Dropout 規則:在訓練梯度步驟中隨機移除類神經網路中的單位。

單張狗狗圖像資料擴增的示意圖,透過隨機轉換產生 9 張新圖片 圖 7. 針對單一狗狗圖片進行資料增強 (摘錄自 Kaggle 提供的「Dogs vs. Cats」資料集)。左側:訓練集的原始狗狗圖片。右圖:使用隨機轉換功能,從原始圖片產生九張新圖片。