Практикум по машинному обучению: классификация изображений
Предотвращение переобучения
Как и в случае с любой моделью машинного обучения, ключевой проблемой при обучении сверточной нейронной сети является переобучение : модель настолько настроена на специфику обучающих данных, что ее невозможно обобщить на новые примеры. Два метода предотвращения переобучения при построении CNN:
Увеличение данных : искусственное увеличение разнообразия и количества обучающих примеров путем выполнения случайных преобразований существующих изображений для создания набора новых вариантов (см. рисунок 7). Увеличение данных особенно полезно, когда исходный набор обучающих данных относительно невелик.
Регуляризация отсева : случайное удаление единиц из нейронной сети на этапе обучения градиенту.
Рисунок 7. Увеличение данных на одном изображении собаки (взято из набора данных «Собаки против кошек», доступного на Kaggle). Слева : исходное изображение собаки из тренировочного набора. Справа : девять новых изображений, созданных из исходного изображения с использованием случайных преобразований.
[null,null,["Последнее обновление: 2025-01-18 UTC."],[[["Overfitting in convolutional neural networks can be mitigated by using techniques like data augmentation and dropout regularization."],["Data augmentation involves creating variations of existing training images to increase dataset diversity and size, which is particularly helpful for smaller datasets."],["Dropout regularization randomly removes units during training to prevent the model from becoming overly specialized to the training data."],["When dealing with large datasets, the need for dropout regularization diminishes and the impact of data augmentation is reduced."]]],[]]