लीनियर रिग्रेशन: ग्रेडिएंट डिसेंट व्यायाम

इस एक्सरसाइज़ में, आपको पैरामीटर एक्सरसाइज़ से, ईंधन की खपत के डेटा के ग्राफ़ पर फिर से जाना होगा. हालांकि, इस बार आपको ग्रेडिएंट डिसेंट का इस्तेमाल करके, लीनियर मॉडल के लिए सबसे सही वेट और बायस वैल्यू का पता लगाना होगा, ताकि लॉस कम हो सके.

ग्राफ़ के नीचे दिए गए तीन टास्क पूरे करें.

टास्क #1: ग्राफ़ के नीचे मौजूद लर्निंग रेट स्लाइडर को अडजस्ट करके, लर्निंग रेट को 0.03 पर सेट करें. ग्रेडिएंट डिसेंट चलाने के लिए, शुरू करें बटन पर क्लिक करें.

मॉडल ट्रेनिंग को एक होने में कितना समय लगता है (कम से कम नुकसान की स्थिर वैल्यू तक पहुंचना)? मॉडल के कन्वर्ज़न पर एमएसई वैल्यू क्या है? किस तरह के वज़न और पक्षपात वाले वैल्यू से यह वैल्यू मिलती है?

जब हम सीखने की दर को 0.03 पर सेट करते हैं, तो मॉडल करीब 30 सेकंड के बाद कन्वर्ज़न इकट्ठा करता है. इस वजह से, हमें 3 से कम का एमएसई मिलता है. वैल्यू के तौर पर इसका वज़न और बायस वैल्यू -2.08 और 23.098 होती है. इससे पता चलता है कि हमने लर्निंग रेट के लिए अच्छी वैल्यू चुनी है.

दूसरा टास्क: ग्राफ़ में मौजूद वेट और बायस वैल्यू को रीसेट करने के लिए, ग्राफ़ के नीचे मौजूद रीसेट करें बटन पर क्लिक करें. लर्निंग रेट स्लाइडर को 1.10e–5 के आस-पास की वैल्यू पर सेट करें. ग्रेडिएंट डिसेंट चलाने के लिए, शुरू करें बटन पर क्लिक करें.

इस बार मॉडल को ट्रेनिंग देने में कितना समय लगा?

कई मिनट बाद भी, मॉडल ट्रेनिंग एक साथ नहीं हुई है. वेट और बायस वैल्यू में छोटे अपडेट करने पर, लॉस वैल्यू में थोड़ी कमी आती है. इससे यह पता चलता है कि अगर सीखने की दर ज़्यादा है, तो सबसे सही वज़न और पूर्वाग्रह की वैल्यू तेज़ी से ढूंढने के लिए, ग्रेडिएंट डिसेंट (ग्रेडिएंट डिसेंट) विकल्प चालू हो जाएगा.

तीसरा टास्क: ग्राफ़ में वेट और बायस की वैल्यू रीसेट करने के लिए, ग्राफ़ के नीचे मौजूद रीसेट करें बटन पर क्लिक करें. लर्निंग रेट स्लाइडर को 1 तक अडजस्ट करें. ग्रेडिएंट डिसेंट चलाने के लिए, शुरू करें बटन पर क्लिक करें.

ग्रेडिएंट डिसेंट के चलने पर लॉस वैल्यू पर क्या असर पड़ता है? इस बार मॉडल ट्रेनिंग को एक साथ लाने में कितना समय लगेगा?

ज़्यादा वैल्यू (300 से ज़्यादा एमएसई) पर, लॉस वैल्यू में काफ़ी उतार-चढ़ाव होता है. इससे पता चलता है कि लर्निंग रेट बहुत ज़्यादा है और मॉडल की ट्रेनिंग कभी भी कंवरजेंस तक नहीं पहुंच पाएगी.