ML Practicum: classificazione delle immagini

Evitare l'overfitting

Come per qualsiasi modello di machine learning, un problema chiave durante l'addestramento di una rete neurale convezionale è l'overfitting: un modello così ottimizzato per le specifiche dei dati di addestramento da non essere in grado di generalizzare a nuovi esempi. Esistono due tecniche per evitare l'overfitting durante la creazione di una CNN:

  • Aumento dei dati: aumenta artificialmente la diversità e il numero di esempi di addestramento eseguendo trasformazioni casuali sulle immagini esistenti per creare un insieme di nuove varianti (vedi Figura 7). L'aumento dei dati è particolarmente utile quando il set di dati di addestramento originale è relativamente piccolo.
  • Regolarizzazione con dropout: rimuovi in modo casuale le unità dalla rete neurale durante un passaggio del gradiente di addestramento.

Diagramma dell'aumento dei dati su una singola immagine di un cane, che produce 9 nuove immagini tramite trasformazioni random Figura 7. Aumentazione dei dati su una singola immagine di cane (estratto dal set di dati"Cani contro gatti" disponibile su Kaggle). A sinistra: immagine originale di un cane del set di addestramento. A destra: nove nuove immagini generate dall'immagine originale utilizzando trasformazioni random.