न्यूरल नेटवर्क: इंटरैक्टिव एक्सरसाइज़

नीचे दी गई इंटरैक्टिव एक्सरसाइज़ की मदद से, डेवलपर न्यूरल नेटवर्क होते हैं. सबसे पहले, आपको दिखेगा कि पैरामीटर और हाइपर पैरामीटर में कैसे बदलाव होता है नेटवर्क के अनुमानों को प्रभावित कर सकता है. तो आप न्यूरल नेटवर्क का इस्तेमाल करता है.

व्यायाम 1

यह विजेट इस कॉन्फ़िगरेशन के साथ न्यूरल नेटवर्क सेट अप करता है:

  • तीन न्यूरॉन वाली इनपुट लेयर, जिसमें 0.00, 0.00, और 0.00 वैल्यू हैं
  • 4 न्यूरॉन वाली छिपी हुई लेयर
  • एक न्यूरॉन वाली आउटपुट लेयर
  • ReLU ऐक्टिवेशन फ़ंक्शन, इस पर लागू होता है सभी छिपे हुए लेयर नोड और आउटपुट नोड

नेटवर्क के शुरुआती सेटअप की समीक्षा करें (ध्यान दें: ▶️ पर क्लिक न करें या >| बटन अभी तक). इसके बाद, विजेट के नीचे दिए गए टास्क पूरे करें.

कार्य 1

न्यूरल नेटवर्क मॉडल की तीन इनपुट सुविधाओं की वैल्यू सभी हैं 0.00. शुरू किए गए सभी नोड देखने के लिए, नेटवर्क के हर नोड पर क्लिक करें वैल्यू. चलाएं (▶️) बटन दबाने से पहले, इस सवाल का जवाब दें:

आपकी दिलचस्पी किस तरह की आउटपुट वैल्यू है सोचें कि क्या बनाया जाएगा: सकारात्मक, नकारात्मक या 0?
पॉज़िटिव आउटपुट वैल्यू
नेगेटिव आउटपुट वैल्यू
आउटपुट वैल्यू 0 है

अब नेटवर्क के ऊपर चलाएं (▶️) बटन क्लिक करें और छिपे हुए सभी लेयर देखें और आउटपुट नोड की वैल्यू अपने-आप भर जाती हैं. क्या ऊपर दिया गया आपका जवाब सही था?

ज़्यादा जानकारी के लिए यहां क्लिक करें

आपको मिलने वाली सटीक आउटपुट वैल्यू, प्रॉडक्ट के वज़न के आधार पर अलग-अलग होगी और बायस पैरामीटर रैंडम तरीके से शुरू किए जाते हैं. हालांकि, हर न्यूरॉन इनपुट लेयर में 0 की वैल्यू है, जिसका इस्तेमाल वैल्यू कैलकुलेट करने के लिए किया जाता है छिपे हुए लेयर वाले नोड की वैल्यू को शून्य कर दिया जाएगा. उदाहरण के लिए, पहले छिपे हुए लेयर नोड की कैलकुलेशन ऐसी होगी:

y = ReLU(w11* 0.00 + w21* 0.00 + w31* 0.00 + b)

y = ReLU(b)

इसलिए, हर छिपे हुए लेयर के नोड का मान, बायस (b), अगर b नेगेटिव है, तो 0 होगा. अगर b 0 है, तो b ही 0 होगा या सकारात्मक.

इसके बाद, आउटपुट नोड की वैल्यू का हिसाब इस तरह से लगाया जाएगा:

y = ReLU(w11* x11 + w21* x21 + w31* x31 + w41* x41 + b)

कार्य 2

न्यूरल नेटवर्क में बदलाव करने से पहले, नीचे दिए गए सवाल का जवाब दें:

अगर किसी दूसरी छिपी हुई लेयर को जोड़ा जाता है, तो न्यूरल नेटवर्क को पहली छिपी हुई लेयर के बाद में जोड़ा जा सकता है और इस नई लेयर को 3 नोड दिए जा सकते हैं. इनपुट और वज़न/बायस पैरामीटर एक जैसे होते हैं, जो अन्य नोड पर मौजूद होते हैं कैलकुलेशन क्या असर पड़ेगा?
सभी नोड इनपुट नोड को छोड़कर, नेटवर्क में
इसमें मौजूद नोड पहली छिपी हुई लेयर
सिर्फ़ आउटपुट नोड

अब न्यूरल नेटवर्क में बदलाव करके तीन नोड के साथ एक नई छिपी हुई लेयर जोड़ें:

  1. नई फ़ाइल जोड़ने के लिए, 1 छिपी हुई लेयर टेक्स्ट के बाईं ओर + बटन पर क्लिक करें यह एक छिपा हुआ लेयर है.
  2. दो और नोड जोड़ने के लिए, नई छिपी हुई लेयर के ऊपर मौजूद + बटन पर दो बार क्लिक करें लेयर तक.

क्या ऊपर दिया गया आपका जवाब सही था?

ज़्यादा जानकारी के लिए यहां क्लिक करें

सिर्फ़ आउटपुट नोड बदलता है. इस न्यूरल नेटवर्क का अनुमान "फ़ीड-फ़ॉरवर्ड" है (शुरू से आखिर तक की जाने वाली गिनती), इसके अलावा नेटवर्क की नई लेयर का असर, सिर्फ़ नई लेयर के बाद के नोड पर पड़ेगा लेयर है, न कि उसके पहले वाली.

कार्य 3

नेटवर्क की पहली छिपी हुई लेयर में दूसरे नोड (ऊपर से) पर क्लिक करें ग्राफ़. नेटवर्क कॉन्फ़िगरेशन में कोई भी बदलाव करने से पहले, फ़ॉलो किया जा रहा सवाल:

अगर आप वेट w12 (पहले इनपुट नोड के नीचे दिखाया गया है, x1), कौनसे अन्य नोड कुछ इनपुट के लिए, कैलकुलेशन पर असर हो सकता है वैल्यू?
कोई नहीं
इसमें दूसरा नोड पहली छिपी हुई लेयर, दूसरी छिपी हुई लेयर के सभी नोड, और आउटपुट नोड में मौजूद है.
इसमें सभी नोड पहली छिपी हुई लेयर, दूसरी छिपी हुई लेयर, और आउटपुट लेयर.

अब, वज़न w12 के लिए टेक्स्ट फ़ील्ड में क्लिक करें (जो नीचे दिखाया गया है पहला इनपुट नोड, x1), इसकी वैल्यू को 5.00 में बदलें और Enter दबाएं. ग्राफ़ के अपडेट देखें.

क्या आपका जवाब सही था? अपने जवाब की पुष्टि करते समय सावधान रहें: अगर कोई नोड वैल्यू नहीं बदलती है, क्या इसका मतलब है कि दिए गए कैलकुलेशन में कोई बदलाव नहीं हुआ है?

ज़्यादा जानकारी के लिए यहां क्लिक करें

पहली छिपी हुई लेयर में प्रभावित होने वाला एकमात्र नोड दूसरा नोड होता है ( जिस पर आपने क्लिक किया है). पहले नोड में अन्य नोड के लिए वैल्यू का कैलकुलेशन छिपी हुई लेयर में पैरामीटर के रूप में w12 नहीं होता, इसलिए वह प्रभावित. दूसरी छिपी हुई लेयर में सभी नोड प्रभावित होते हैं, क्योंकि कैलकुलेशन, पहले नोड में दूसरे नोड की वैल्यू पर निर्भर करती है छिपी हुई लेयर. इसी तरह, आउटपुट नोड की वैल्यू पर असर पड़ता है, क्योंकि कैलकुलेशन, दूसरी छिपी हुई लेयर में नोड की वैल्यू पर निर्भर करती हैं.

क्या आपको लगता है कि जवाब "कोई नहीं" है क्योंकि इसमें कोई भी नोड मान नहीं है क्या वज़न की वैल्यू बदलने पर नेटवर्क बदल गया है? ध्यान दें कि नोड की कैलकुलेशन, नोड की वैल्यू बदले बिना बदल सकती है (उदाहरण के लिए, ReLU(0) और ReLU(–5), दोनों ही 0 का आउटपुट देते हैं. नेटवर्क को कैसे प्रभावित किया गया था, इस बारे में अनुमान न लगाएं नोड की वैल्यू देखकर; साथ ही, कैलकुलेशन की समीक्षा ज़रूर करें.

व्यायाम 2

फ़ीचर क्रॉस व्यायाम कैटगरिकल डेटा मॉड्यूल में उपलब्ध है, आपने नॉनलीनियर डेटा को फ़िट करने के लिए, सुविधा क्रॉस को मैन्युअल तौर पर बनाया हो. अब, आपको दिखेगा कि क्या आपके पास ऐसा न्यूरल नेटवर्क बनाने का विकल्प है जो अपने-आप सीख सकता है ट्रेनिंग के दौरान नॉनलीनियर डेटा को कैसे फ़िट किया जाए.

आपका टास्क: एक ऐसा न्यूरल नेटवर्क कॉन्फ़िगर करें जो नारंगी बिंदुओं को अलग कर सके नीचे दिए गए डायग्राम में नीले बिंदुओं से, दोनों में 0.2 से कम का नुकसान होता है ट्रेनिंग और टेस्ट डेटा हो सकता है.

Instructions:

नीचे दिए गए इंटरैक्टिव विजेट में:

  1. न्यूरल नेटवर्क के हाइपर पैरामीटर में बदलाव करने के लिए, कुछ नीचे दी गई कॉन्फ़िगरेशन सेटिंग का इस्तेमाल किया जा सकता है:
    • + और - बटन पर क्लिक करके छिपी हुई लेयर जोड़ें या हटाएं नेटवर्क आरेख में छिपी लेयर की बाईं ओर मौजूद है.
    • + और - पर क्लिक करके किसी छिपी हुई लेयर में न्यूरॉन जोड़ें या हटाएं छिपे हुए लेयर कॉलम के ऊपर मौजूद बटन.
    • लर्निंग रेट से कोई नई वैल्यू चुनकर, लर्निंग रेट बदलें ड्रॉप-डाउन पर क्लिक करें.
    • ऐक्टिवेशन फ़ंक्शन बदलने के लिए, डायग्राम के ऊपर ऐक्टिवेशन ड्रॉप-डाउन.
  2. न्यूरल नेटवर्क को ट्रेनिंग देने के लिए, डायग्राम के ऊपर दिए गए चलाएं (▶️) बटन पर क्लिक करें पैरामीटर का इस्तेमाल करें.
  3. ट्रेनिंग के तौर पर डेटा को फ़िट करने वाले मॉडल के विज़ुअलाइज़ेशन को देखें आपका खाता टेस्ट हार और इसमें ट्रेनिंग में कमी की वैल्यू आउटपुट सेक्शन में.
  4. अगर मॉडल, टेस्ट और ट्रेनिंग डेटा पर 0.2 से कम वैल्यू नहीं हासिल करता, 'रीसेट करें' पर क्लिक करें और कॉन्फ़िगरेशन के दूसरे सेट के साथ, पहले से तीसरे चरण तक की प्रक्रिया को दोहराएं सेटिंग. यह तरीका तब तक दोहराएं, जब तक आपको पसंदीदा नतीजे न मिल जाएं.

समस्या हल करने के लिए, यहां क्लिक करें

हम 0.2 से कम में, टेस्ट और ट्रेनिंग में नुकसान, दोनों को हासिल करने में कामयाब रहे. इसके लिए हम ये काम कर सकते हैं:

  • 3 न्यूरॉन वाली 1 छिपी हुई लेयर जोड़ी जा रही है.
  • 0.01 की लर्निंग रेट चुन रही हूँ.
  • ReLU का ऐक्टिवेशन फ़ंक्शन चुनना.