नीचे दी गई इंटरैक्टिव एक्सरसाइज़ की मदद से, डेवलपर न्यूरल नेटवर्क होते हैं. सबसे पहले, आपको दिखेगा कि पैरामीटर और हाइपर पैरामीटर में कैसे बदलाव होता है नेटवर्क के अनुमानों को प्रभावित कर सकता है. तो आप न्यूरल नेटवर्क का इस्तेमाल करता है.
व्यायाम 1
यह विजेट इस कॉन्फ़िगरेशन के साथ न्यूरल नेटवर्क सेट अप करता है:
- तीन न्यूरॉन वाली इनपुट लेयर, जिसमें
0.00
,0.00
, और0.00
वैल्यू हैं - 4 न्यूरॉन वाली छिपी हुई लेयर
- एक न्यूरॉन वाली आउटपुट लेयर
- ReLU ऐक्टिवेशन फ़ंक्शन, इस पर लागू होता है सभी छिपे हुए लेयर नोड और आउटपुट नोड
नेटवर्क के शुरुआती सेटअप की समीक्षा करें (ध्यान दें: ▶️ पर क्लिक न करें या >| बटन अभी तक). इसके बाद, विजेट के नीचे दिए गए टास्क पूरे करें.
कार्य 1
न्यूरल नेटवर्क मॉडल की तीन इनपुट सुविधाओं की वैल्यू सभी हैं
0.00
. शुरू किए गए सभी नोड देखने के लिए, नेटवर्क के हर नोड पर क्लिक करें
वैल्यू. चलाएं (▶️) बटन दबाने से पहले, इस सवाल का जवाब दें:
अब नेटवर्क के ऊपर चलाएं (▶️) बटन क्लिक करें और छिपे हुए सभी लेयर देखें और आउटपुट नोड की वैल्यू अपने-आप भर जाती हैं. क्या ऊपर दिया गया आपका जवाब सही था?
ज़्यादा जानकारी के लिए यहां क्लिक करें
आपको मिलने वाली सटीक आउटपुट वैल्यू, प्रॉडक्ट के वज़न के आधार पर अलग-अलग होगी और बायस पैरामीटर रैंडम तरीके से शुरू किए जाते हैं. हालांकि, हर न्यूरॉन इनपुट लेयर में 0 की वैल्यू है, जिसका इस्तेमाल वैल्यू कैलकुलेट करने के लिए किया जाता है छिपे हुए लेयर वाले नोड की वैल्यू को शून्य कर दिया जाएगा. उदाहरण के लिए, पहले छिपे हुए लेयर नोड की कैलकुलेशन ऐसी होगी:
y = ReLU(w11* 0.00 + w21* 0.00 + w31* 0.00 + b)
y = ReLU(b)
इसलिए, हर छिपे हुए लेयर के नोड का मान, बायस (b), अगर b नेगेटिव है, तो 0 होगा. अगर b 0 है, तो b ही 0 होगा या सकारात्मक.
इसके बाद, आउटपुट नोड की वैल्यू का हिसाब इस तरह से लगाया जाएगा:
y = ReLU(w11* x11 + w21* x21 + w31* x31 + w41* x41 + b)
कार्य 2
न्यूरल नेटवर्क में बदलाव करने से पहले, नीचे दिए गए सवाल का जवाब दें:
अब न्यूरल नेटवर्क में बदलाव करके तीन नोड के साथ एक नई छिपी हुई लेयर जोड़ें:
- नई फ़ाइल जोड़ने के लिए, 1 छिपी हुई लेयर टेक्स्ट के बाईं ओर + बटन पर क्लिक करें यह एक छिपा हुआ लेयर है.
- दो और नोड जोड़ने के लिए, नई छिपी हुई लेयर के ऊपर मौजूद + बटन पर दो बार क्लिक करें लेयर तक.
क्या ऊपर दिया गया आपका जवाब सही था?
ज़्यादा जानकारी के लिए यहां क्लिक करें
सिर्फ़ आउटपुट नोड बदलता है. इस न्यूरल नेटवर्क का अनुमान "फ़ीड-फ़ॉरवर्ड" है (शुरू से आखिर तक की जाने वाली गिनती), इसके अलावा नेटवर्क की नई लेयर का असर, सिर्फ़ नई लेयर के बाद के नोड पर पड़ेगा लेयर है, न कि उसके पहले वाली.
कार्य 3
नेटवर्क की पहली छिपी हुई लेयर में दूसरे नोड (ऊपर से) पर क्लिक करें ग्राफ़. नेटवर्क कॉन्फ़िगरेशन में कोई भी बदलाव करने से पहले, फ़ॉलो किया जा रहा सवाल:
अब, वज़न w12 के लिए टेक्स्ट फ़ील्ड में क्लिक करें (जो नीचे दिखाया गया है
पहला इनपुट नोड, x1), इसकी वैल्यू को 5.00
में बदलें और Enter दबाएं.
ग्राफ़ के अपडेट देखें.
क्या आपका जवाब सही था? अपने जवाब की पुष्टि करते समय सावधान रहें: अगर कोई नोड वैल्यू नहीं बदलती है, क्या इसका मतलब है कि दिए गए कैलकुलेशन में कोई बदलाव नहीं हुआ है?
ज़्यादा जानकारी के लिए यहां क्लिक करें
पहली छिपी हुई लेयर में प्रभावित होने वाला एकमात्र नोड दूसरा नोड होता है ( जिस पर आपने क्लिक किया है). पहले नोड में अन्य नोड के लिए वैल्यू का कैलकुलेशन छिपी हुई लेयर में पैरामीटर के रूप में w12 नहीं होता, इसलिए वह प्रभावित. दूसरी छिपी हुई लेयर में सभी नोड प्रभावित होते हैं, क्योंकि कैलकुलेशन, पहले नोड में दूसरे नोड की वैल्यू पर निर्भर करती है छिपी हुई लेयर. इसी तरह, आउटपुट नोड की वैल्यू पर असर पड़ता है, क्योंकि कैलकुलेशन, दूसरी छिपी हुई लेयर में नोड की वैल्यू पर निर्भर करती हैं.
क्या आपको लगता है कि जवाब "कोई नहीं" है क्योंकि इसमें कोई भी नोड मान नहीं है क्या वज़न की वैल्यू बदलने पर नेटवर्क बदल गया है? ध्यान दें कि नोड की कैलकुलेशन, नोड की वैल्यू बदले बिना बदल सकती है (उदाहरण के लिए, ReLU(0) और ReLU(–5), दोनों ही 0 का आउटपुट देते हैं. नेटवर्क को कैसे प्रभावित किया गया था, इस बारे में अनुमान न लगाएं नोड की वैल्यू देखकर; साथ ही, कैलकुलेशन की समीक्षा ज़रूर करें.
व्यायाम 2
फ़ीचर क्रॉस व्यायाम कैटगरिकल डेटा मॉड्यूल में उपलब्ध है, आपने नॉनलीनियर डेटा को फ़िट करने के लिए, सुविधा क्रॉस को मैन्युअल तौर पर बनाया हो. अब, आपको दिखेगा कि क्या आपके पास ऐसा न्यूरल नेटवर्क बनाने का विकल्प है जो अपने-आप सीख सकता है ट्रेनिंग के दौरान नॉनलीनियर डेटा को कैसे फ़िट किया जाए.
आपका टास्क: एक ऐसा न्यूरल नेटवर्क कॉन्फ़िगर करें जो नारंगी बिंदुओं को अलग कर सके नीचे दिए गए डायग्राम में नीले बिंदुओं से, दोनों में 0.2 से कम का नुकसान होता है ट्रेनिंग और टेस्ट डेटा हो सकता है.
Instructions:
नीचे दिए गए इंटरैक्टिव विजेट में:
- न्यूरल नेटवर्क के हाइपर पैरामीटर में बदलाव करने के लिए, कुछ
नीचे दी गई कॉन्फ़िगरेशन सेटिंग का इस्तेमाल किया जा सकता है:
- + और - बटन पर क्लिक करके छिपी हुई लेयर जोड़ें या हटाएं नेटवर्क आरेख में छिपी लेयर की बाईं ओर मौजूद है.
- + और - पर क्लिक करके किसी छिपी हुई लेयर में न्यूरॉन जोड़ें या हटाएं छिपे हुए लेयर कॉलम के ऊपर मौजूद बटन.
- लर्निंग रेट से कोई नई वैल्यू चुनकर, लर्निंग रेट बदलें ड्रॉप-डाउन पर क्लिक करें.
- ऐक्टिवेशन फ़ंक्शन बदलने के लिए, डायग्राम के ऊपर ऐक्टिवेशन ड्रॉप-डाउन.
- न्यूरल नेटवर्क को ट्रेनिंग देने के लिए, डायग्राम के ऊपर दिए गए चलाएं (▶️) बटन पर क्लिक करें पैरामीटर का इस्तेमाल करें.
- ट्रेनिंग के तौर पर डेटा को फ़िट करने वाले मॉडल के विज़ुअलाइज़ेशन को देखें आपका खाता टेस्ट हार और इसमें ट्रेनिंग में कमी की वैल्यू आउटपुट सेक्शन में.
- अगर मॉडल, टेस्ट और ट्रेनिंग डेटा पर 0.2 से कम वैल्यू नहीं हासिल करता, 'रीसेट करें' पर क्लिक करें और कॉन्फ़िगरेशन के दूसरे सेट के साथ, पहले से तीसरे चरण तक की प्रक्रिया को दोहराएं सेटिंग. यह तरीका तब तक दोहराएं, जब तक आपको पसंदीदा नतीजे न मिल जाएं.
समस्या हल करने के लिए, यहां क्लिक करें
हम 0.2 से कम में, टेस्ट और ट्रेनिंग में नुकसान, दोनों को हासिल करने में कामयाब रहे. इसके लिए हम ये काम कर सकते हैं:
- 3 न्यूरॉन वाली 1 छिपी हुई लेयर जोड़ी जा रही है.
- 0.01 की लर्निंग रेट चुन रही हूँ.
- ReLU का ऐक्टिवेशन फ़ंक्शन चुनना.