Podobnie jak w przypadku każdego modelu uczenia maszynowego, podczas trenowania sieci neuronowej skonwertowanej kluczowym problemem jest nadmierne dopasowanie: model jest tak dopasowany do specyfiki danych treningowych, że nie jest w stanie uogólniać na nowe przykłady. Istnieją 2 techniki zapobiegania przetrenowywania podczas tworzenia sieci CNN:
Powiększanie zbioru danych: sztuczne zwiększanie różnorodności i liczby przykładów treningowych przez losowe przekształcanie dotychczasowych obrazów w celu utworzenia zestawu nowych wariantów (patrz rys. 7). Powiększanie danych jest szczególnie przydatne, gdy oryginalny zbiór danych treningowych jest stosunkowo mały.
Regulacja polegająca na pomijaniu: losowe usuwanie jednostek z sieci neuronowej podczas kroku gradientu treningowego.
Rysunek 7. Rozszerzanie danych na podstawie pojedynczego obrazu psa (wycinek ze zbioru danych „Dogs vs. Cats” dostępnego na Kaggle). Po lewej: oryginalny obraz psa ze zbioru treningowego.
Prawo: 9 nowych obrazów wygenerowanych na podstawie oryginalnego obrazu za pomocą losowych przekształceń.
[null,null,["Ostatnia aktualizacja: 2025-01-18 UTC."],[[["Overfitting in convolutional neural networks can be mitigated by using techniques like data augmentation and dropout regularization."],["Data augmentation involves creating variations of existing training images to increase dataset diversity and size, which is particularly helpful for smaller datasets."],["Dropout regularization randomly removes units during training to prevent the model from becoming overly specialized to the training data."],["When dealing with large datasets, the need for dropout regularization diminishes and the impact of data augmentation is reduced."]]],[]]