যেকোন মেশিন লার্নিং মডেলের মতো, একটি কনভোল্যুশনাল নিউরাল নেটওয়ার্ককে প্রশিক্ষণ দেওয়ার সময় একটি প্রধান উদ্বেগ ওভারফিটিং : এমন একটি মডেল যা প্রশিক্ষণের ডেটার সুনির্দিষ্ট বৈশিষ্ট্যের সাথে টিউন করে যে এটি নতুন উদাহরণে সাধারণীকরণ করতে অক্ষম। সিএনএন তৈরি করার সময় ওভারফিটিং প্রতিরোধ করার দুটি কৌশল হল:
ডেটা বৃদ্ধি : কৃত্রিমভাবে নতুন বৈচিত্রের একটি সেট তৈরি করতে বিদ্যমান চিত্রগুলিতে এলোমেলো রূপান্তর সম্পাদন করে প্রশিক্ষণের উদাহরণের বৈচিত্র্য এবং সংখ্যা বৃদ্ধি করা (চিত্র 7 দেখুন)। ডেটা অগমেন্টেশন বিশেষভাবে উপযোগী যখন মূল প্রশিক্ষণ ডেটা সেট তুলনামূলকভাবে ছোট হয়।
ড্রপআউট নিয়মিতকরণ : একটি প্রশিক্ষণ গ্রেডিয়েন্ট পদক্ষেপের সময় এলোমেলোভাবে নিউরাল নেটওয়ার্ক থেকে ইউনিটগুলি সরানো।
চিত্র 7. একটি একক কুকুরের চিত্রে ডেটা বৃদ্ধি (কাগলে উপলব্ধ "কুকুর বনাম বিড়াল" ডেটাসেট থেকে উদ্ধৃত)। বাম : প্রশিক্ষণ সেট থেকে আসল কুকুরের ছবি। ডানদিকে : এলোমেলো রূপান্তর ব্যবহার করে মূল ছবি থেকে নয়টি নতুন ছবি তৈরি করা হয়েছে।
[null,null,["2025-01-18 UTC-তে শেষবার আপডেট করা হয়েছে।"],[[["Overfitting in convolutional neural networks can be mitigated by using techniques like data augmentation and dropout regularization."],["Data augmentation involves creating variations of existing training images to increase dataset diversity and size, which is particularly helpful for smaller datasets."],["Dropout regularization randomly removes units during training to prevent the model from becoming overly specialized to the training data."],["When dealing with large datasets, the need for dropout regularization diminishes and the impact of data augmentation is reduced."]]],[]]