كما هو الحال مع أي نموذج تعلُّم آلي، فإنّ أحد المخاوف الرئيسية عند تدريب شبكة عصبية مرتّبة
هو الملاءمة الزائدة: وهو نموذج تم ضبطه وفقًا لتفاصيل
البيانات التدريبية لدرجة أنّه لا يمكنه التعميم على الأمثلة الجديدة. في ما يلي طريقتان لتجنُّب التطابق المفرط عند إنشاء شبكة عصبية تلافعية:
زيادة البيانات: زيادة التنوع وعدد مثاليّات التدريب بشكل مصطنع من خلال إجراء عمليات تحويل عشوائية للصور الحالية لإنشاء مجموعة من الصيغ الجديدة (راجِع الشكل 7). تكون ميزة "تعزيز البيانات" مفيدة بشكلٍ خاص
عندما تكون مجموعة بيانات التدريب الأصلية صغيرة نسبيًا.
تسويف الإزالة: إزالة وحدات عشوائيًا من الشبكة العصبية
أثناء خطوة تدريب التدرج.
الشكل 7. زيادة البيانات
على صورة كلب واحدة (مقتطف من مجموعة بيانات"الكلاب مقابل القطط"
المتوفّرة على Kaggle) اليسار: صورة الكلب الأصلية من مجموعة التدريب
على اليمين: تسع صور جديدة تم إنشاؤها من الصورة الأصلية باستخدام
عمليات تحويل عشوائية.
تاريخ التعديل الأخير: 2025-01-18 (حسب التوقيت العالمي المتفَّق عليه)
[null,null,["تاريخ التعديل الأخير: 2025-01-18 (حسب التوقيت العالمي المتفَّق عليه)"],[[["Overfitting in convolutional neural networks can be mitigated by using techniques like data augmentation and dropout regularization."],["Data augmentation involves creating variations of existing training images to increase dataset diversity and size, which is particularly helpful for smaller datasets."],["Dropout regularization randomly removes units during training to prevent the model from becoming overly specialized to the training data."],["When dealing with large datasets, the need for dropout regularization diminishes and the impact of data augmentation is reduced."]]],[]]