मशीन लर्निंग बहुत आसान होता, अगर आपके लॉस कर्व जब आपने पहली बार अपने मॉडल को ट्रेनिंग दी, तो ऐसा दिखेगा:
दुर्भाग्य से, लॉस कर्व की व्याख्या करना अक्सर चुनौती भरा होता है. अपने इस पेज पर दिए गए एक्सरसाइज़ से जुड़े सवालों को हल करने के लिए, लॉस कर्व के बारे में इतना समझ.
व्यायाम 1: ऑसिलेटिंग लॉस कर्व
नुकसान पहुंचाने वाले कर्व को बढ़ाने के लिए, कौनसे तीन कदम उठाए जा सकते हैं
इमेज 21 में दिखाई गई है.
खराब उदाहरणों का पता लगाने के लिए, डेटा स्कीमा से अपने डेटा की जांच करें और
फिर ट्रेनिंग सेट से खराब उदाहरण हटा दें.
हां, यह सभी मॉडल के लिए अच्छा तरीका है.
सीखने की दर कम करें.
हां, किसी साइट को डीबग करते समय, सीखने की दर को कम करना अच्छा होता है
ट्रेनिंग से जुड़ी समस्या.
ट्रेनिंग सेट को कम भरोसेमंद उदाहरणों के तौर पर सीमित करें.
वैसे तो यह तकनीक इंसानों की तरह लगती है, लेकिन असल में यह एक अच्छी
सुझाव. यह मानते हुए कि मॉडल
भरोसेमंद उदाहरणों के लिए, फिर धीरे-धीरे ज़्यादा उदाहरण जोड़े जा सकते हैं.
शायद यह पता लगाना कि किन उदाहरणों की वजह से लॉस कर्व होता है
हिलते-डुलते रहते हैं.
ट्रेनिंग सेट में उदाहरणों की संख्या बढ़ाएं.
यह एक लुभावना आइडिया है, लेकिन इसके ठीक होने की संभावना बहुत कम है
उस समस्या को हल कर सकें.
सीखने की दर बढ़ाएं.
आम तौर पर, सीखने की दर को बढ़ाने से बचें. ऐसा तब ही करें, जब मॉडल
लर्निंग कर्व से पता चलता है कि कोई समस्या है.
व्यायाम 2. तेज़ छलांग से नुकीला कर्व
नीचे दिए गए दो स्टेटमेंट से किसकी पहचान होती है
में विस्फोट होने की वजह से होने वाली गिरावट की वजहें दी गई हैं, जो इमेज 22 में दिखाई गई हैं.
इनपुट डेटा में एक या उससे ज़्यादा NaNs होते हैं—उदाहरण के लिए, कोई वैल्यू
शून्य से भाग देने की वजह से होता है.
यह आपकी उम्मीद से ज़्यादा सामान्य है.
इनपुट डेटा में आउटलायर का बर्स्ट शामिल होता है.
कभी-कभी, बैच की गलत शफ़ल की वजह से, बैच
उसमें कई आउटलायर शामिल होते हैं.
सीखने की दर बहुत कम है.
सीखने की दर बहुत कम होने पर, ट्रेनिंग में लगने वाला समय बढ़ सकता है. हालांकि,
जो अजीब लॉस कर्व की वजह नहीं है.
रेगुलराइज़ेशन दर बहुत ज़्यादा है.
सही है, रेगुलराइज़ेशन का बहुत ज़्यादा इस्तेमाल करने पर, मॉडल
converging; हालांकि, इससे अजीब लॉस वक्र
इमेज 22 में दिखाई गई है.
व्यायाम 3. टेस्ट लॉस की वजह से, ट्रेनिंग न मिली
नीचे दिए गए एक कथन में से कौन सा
ट्रेनिंग के लॉस कर्व के बीच इस अंतर की वजह
और टेस्ट सेट?
मॉडल, ट्रेनिंग सेट में ज़रूरत से ज़्यादा फ़िट हो रहा है.
हां, शायद ऐसा है. संभावित समाधान:
- शायद संख्या कम करके मॉडल को आसान बनाएं सुविधाएं मौजूद हैं.
- रेगुलराइज़ेशन रेट बढ़ाएं.
- पक्का करना कि ट्रेनिंग सेट और टेस्ट सेट आंकड़ों के हिसाब से हों के बराबर है.
सीखने की दर बहुत ज़्यादा है.
अगर सीखने की दर बहुत ज़्यादा थी, तो ट्रेनिंग सेट में मौजूद लॉस कर्व
शायद इस तरह व्यवहार नहीं किया होगा.
चौथी कसरत. लॉस कर्व अटक जाता है
इनमें से एक स्टेटमेंट से,
इमेज 24 में दिखाए गए अनियमित लॉस कर्व की वजह?
ट्रेनिंग सेट में उदाहरणों के क्रम को दोहराया गया है.
ऐसा हो सकता है. पक्का करें कि उदाहरणों को शफ़ल किया जा रहा है
काफ़ी मदद करते हैं.
रेगुलराइज़ेशन दर बहुत ज़्यादा है.
इस वजह से होने की संभावना नहीं है.
ट्रेनिंग सेट में बहुत सारी सुविधाएं हैं.
इस वजह से होने की संभावना नहीं है.