Überanpassung verhindern
Wie bei jedem Modell für maschinelles Lernen ist das Überanpassung ein wichtiges Thema beim Trainieren eines faltenden neuronalen Netzwerks. Dieses Modell ist so auf die Details der Trainingsdaten abgestimmt, dass es nicht auf neue Beispiele verallgemeinern kann. Zwei Methoden, um eine Überanpassung beim Erstellen eines CNN zu vermeiden, sind:
- Datenerweiterung: künstliche Steigerung der Vielfalt und Anzahl von Trainingsbeispielen durch Zufallstransformationen an vorhandene Bilder, um eine Reihe neuer Varianten zu erstellen (siehe Abbildung 7). Die Datenerweiterung ist besonders nützlich, wenn das ursprüngliche Dataset relativ klein ist.
- Dropout-Standardisierung: Zufällige Entfernen von Einheiten aus dem neuronalen Netzwerk während eines Trainingsverlaufsschritts.
Abbildung 7. Datenerweiterung für ein einzelnes Hundebild (auszug aus dem Dataset "Dogs vs. Cats" aus Kaggle). Links: Original-Hundebild aus dem Trainings-Set Rechts: Neun Bilder, die mit zufälligen Transformationen aus dem ursprünglichen Bild generiert wurden, werden hinzugefügt.