어떤 머신러닝 모델에서나 그렇듯이 컨볼루션 신경망을 학습시킬 때 가장 중요한 관심사는 과적합이 발생하지 않도록 하는 것입니다. 과적합이란 모델이 학습 데이터의 특성에 지나치게 맞춰져 새로운 예를 접했을 때 일반화할 수 없는 상태를 말합니다. CNN을 구축할 때 다음과 같은 두 가지 기법을
사용하여 과적합을 방지할 수 있습니다.
데이터 확장: 기존 이미지를 임의로 변형함으로써 학습용 예의 다양성과 개수를 인위적으로 늘려 새로운 변형 세트를 만듭니다 (그림 7 참고). 데이터 확장은 학습용 데이터 세트가 비교적 작을 때 특히 유용합니다.
드롭아웃 정규화: 학습 중 경사(gradient) 단계에서 신경망으로부터 유닛을 임의로 삭제합니다.
그림 7. 개 이미지 1개를 대상으로 한 데이터 확장 (Kaggle에서 제공되는 '개와 고양이' 데이터 세트에서 발췌). 왼쪽: 학습 세트의 원본 개 이미지.
오른쪽: 임의의 변형을 사용해 원본 이미지에서 생성된 9개의 새로운 이미지
[null,null,["최종 업데이트: 2025-01-18(UTC)"],[[["Overfitting in convolutional neural networks can be mitigated by using techniques like data augmentation and dropout regularization."],["Data augmentation involves creating variations of existing training images to increase dataset diversity and size, which is particularly helpful for smaller datasets."],["Dropout regularization randomly removes units during training to prevent the model from becoming overly specialized to the training data."],["When dealing with large datasets, the need for dropout regularization diminishes and the impact of data augmentation is reduced."]]],[]]