مانند هر مدل یادگیری ماشینی، یکی از نگرانیهای کلیدی هنگام آموزش شبکه عصبی کانولوشن ، بیش از حد برازش است: مدلی که به قدری با مشخصات دادههای آموزشی تنظیم شده است که قادر به تعمیم آن به نمونههای جدید نیست. دو روش برای جلوگیری از نصب بیش از حد در هنگام ساخت CNN عبارتند از:
تقویت داده ها : افزایش مصنوعی تنوع و تعداد نمونه های آموزشی با انجام تبدیل های تصادفی به تصاویر موجود برای ایجاد مجموعه ای از انواع جدید (شکل 7 را ببینید). افزایش داده ها به ویژه زمانی مفید است که مجموعه داده های آموزشی اصلی نسبتاً کوچک باشد.
تنظیم حذف : حذف تصادفی واحدها از شبکه عصبی در طول یک مرحله گرادیان آموزشی.
شکل 7. افزایش داده ها در یک تصویر سگ منفرد (برگرفته از مجموعه داده "سگ ها در مقابل گربه ها" موجود در Kaggle). سمت چپ : تصویر سگ اصلی از مجموعه آموزشی. سمت راست : نه تصویر جدید از تصویر اصلی با استفاده از تبدیلهای تصادفی ایجاد شده است.
تاریخ آخرین بهروزرسانی 2025-01-18 بهوقت ساعت هماهنگ جهانی.
[null,null,["تاریخ آخرین بهروزرسانی 2025-01-18 بهوقت ساعت هماهنگ جهانی."],[[["Overfitting in convolutional neural networks can be mitigated by using techniques like data augmentation and dropout regularization."],["Data augmentation involves creating variations of existing training images to increase dataset diversity and size, which is particularly helpful for smaller datasets."],["Dropout regularization randomly removes units during training to prevent the model from becoming overly specialized to the training data."],["When dealing with large datasets, the need for dropout regularization diminishes and the impact of data augmentation is reduced."]]],[]]