Travaux pratiques sur le ML: classification d'images
Prévenir le surapprentissage
Comme c'est le cas pour tout modèle de machine learning, le surapprentissage constitue une préoccupation majeure lors de l'apprentissage d'un réseau de neurones convolutif. En fait, il arrive fréquemment qu'un modèle soit si bien adapté aux spécificités des données d'apprentissage que la généralisation à de nouveaux exemples est impossible. Deux techniques permettent de prévenir le surapprentissage lors de la construction d'un réseau de neurones convolutif:
Augmentation des données: augmentation artificielle de la diversité et du nombre d'exemples d'apprentissage en appliquant des transformations aléatoires aux images existantes pour créer un ensemble de nouvelles variantes (voir figure 7). L'augmentation des données est particulièrement utile lorsque l'ensemble de données d'apprentissage d'origine est relativement petit.
Régularisation par abandon: suppression aléatoire d'unités du réseau de neurones lors d'une étape de gradient d'apprentissage.
Figure 7. Augmentation des données sur une seule image de chien (extraite de l'ensemble de données "Dogs vs. Cats" disponible sur Kaggle). À gauche: image de chien originale tirée de l'ensemble d'apprentissage.
À droite: neuf nouvelles images générées à partir de l'image d'origine à l'aide de transformations aléatoires.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/01/18 (UTC).
[null,null,["Dernière mise à jour le 2025/01/18 (UTC)."],[[["Overfitting in convolutional neural networks can be mitigated by using techniques like data augmentation and dropout regularization."],["Data augmentation involves creating variations of existing training images to increase dataset diversity and size, which is particularly helpful for smaller datasets."],["Dropout regularization randomly removes units during training to prevent the model from becoming overly specialized to the training data."],["When dealing with large datasets, the need for dropout regularization diminishes and the impact of data augmentation is reduced."]]],[]]