Come prevenire l'overfitting
Come per qualsiasi modello di machine learning, un aspetto fondamentale dell'addestramento di una rete neurale convoluzionale è l'overfitting: un modello così sintonizzato sulle specifiche dei dati di addestramento che non è possibile generalizzare con nuovi esempi. Due tecniche per prevenire l'overfitting durante la creazione di una CNN sono:
- Potenziamento dei dati: potenzia artificialmente la varietà e il numero di esempi di addestramento eseguendo trasformazioni casuali alle immagini esistenti per creare un insieme di nuove varianti (vedi Figura 7). L'integrazione dei dati è particolarmente utile quando il set di dati di addestramento originale è relativamente piccolo.
- Normalizzazione degli abbandoni: rimozione casuale delle unità dalla rete neurale durante un passaggio del gradiente di addestramento.
Figura 7. Aumento dei dati su una singola immagine di cane (estratto dal "Dogs vs. Cats" set di dati disponibile su Kaggle). Sinistra: immagine originale del cane dal set di addestramento. Destra: nove nuove immagini generate dall'immagine originale utilizzando trasformazioni casuali.