न्यूरल नेटवर्क: नोड और छिपी हुई लेयर

न्यूरल नेटवर्क बनाने के लिए जो नैनलाइनरी सीखता है, नीचे दी गई जानी-पहचानी मॉडल संरचना से शुरू करें: फ़ॉर्म का लीनियर मॉडल $y' = b + w_1x_1 + w_2x_2 + w_3x_3$.

हम इस समीकरण को नीचे दिखाए गए तरीके से विज़ुअलाइज़ कर सकते हैं, जहां $x_1$, $x_2$ और $x_3$ हमारे तीन इनपुट नोड हैं (नीले में) और $y'$ हमारा आउटपुट नोड है (हरे रंग में).

व्यायाम 1

ऊपर दिए गए मॉडल में, वज़न और पूर्वाग्रह की वैल्यू रैंडम तरीके से दी गई हैं शुरू किया गया. समस्याओं को समझने के लिए ये काम करें लीनियर मॉडल का इंटरफ़ेस देखें और उन्हें एक्सप्लोर करें. आप फ़िलहाल, ऐक्टिवेशन फ़ंक्शन ड्रॉपडाउन को अनदेखा करें; हम इस विषय पर चर्चा करेंगे विषय को बाद में मॉड्यूल में शामिल किया जा सकता है.

  1. मान की गणना करने के लिए नेटवर्क के ऊपर चलाएं (▶️) बटन क्लिक करें इनपुट वैल्यू के लिए आउटपुट नोड $x_1 = 1.00$, $x_2 = 2.00$, और $x_3 = 3.00$.

  2. दूसरे नोड पर क्लिक करें इनपुट लेयर, और 2.00 से मान 2.50 तक. ध्यान दें कि आउटपुट नोड की वैल्यू बदल जाती है. आउटपुट चुनें नोड (हरे रंग में) और कैलकुलेशन पैनल की समीक्षा करके देखें कि आउटपुट मान की गणना की गई.

  3. वज़न ($w_1$, $w_2$, $w_3$) देखने के लिए आउटपुट नोड (हरे रंग में) पर क्लिक करें और बायस ($b$) पैरामीटर वैल्यू. इसके लिए वज़न मान घटाएं $w_3$ (फिर से नोट करें कि आउटपुट नोड का मान और नीचे दी गई गणनाएं बदल गए हैं). इसके बाद, बायस वैल्यू बढ़ाएं. देखें कि ये बदलाव किस तरह किए गए हैं मॉडल आउटपुट पर असर पड़ा है.

नेटवर्क में लेयर जोड़ना

ध्यान दें कि जब आपने नेटवर्क के वेट और बायस वैल्यू को अडजस्ट किया था, पहला अभ्यास, जिससे गणित के पूरे गणित के सवाल में कोई बदलाव नहीं हुआ हो इनपुट और आउटपुट के बीच संबंध. हमारा मॉडल अब भी एक लीनियर मॉडल है.

हालांकि, अगर हम नेटवर्क में इनपुट लेयर के बीच में एक और लेयर जोड़ें, तो क्या होगा और आउटपुट लेयर? न्यूरल नेटवर्क शब्दावली में, दो लेयर के बीच अतिरिक्त लेयर होनी चाहिए इनपुट लेयर और आउटपुट लेयर को छिपी हुई लेयर, और नोड इन लेयर में मौजूद डेटा न्यूरॉन.

छिपी हुई लेयर में हर न्यूरॉन के मान का हिसाब ऐसे ही लगाया जाता है, जैसे कि रैखिक मॉडल का आउटपुट: इसके हर इनपुट के गुणनफल का योग निकालें (पिछली नेटवर्क लेयर में मौजूद न्यूरॉन) और यूनीक वेट पैरामीटर, और पक्षपात भी. इसी तरह, अगली लेयर में मौजूद न्यूरॉन (यहां, आउटपुट लेयर पर क्लिक करें) इसका हिसाब लगाने के लिए, छिपी लेयर की न्यूरॉन वैल्यू का इस्तेमाल इनपुट के तौर पर किया जाता है.

इस नई छिपी लेयर की मदद से हमारा मॉडल, इनपुट डेटा को किसी अन्य लेयर का इस्तेमाल करके, पैरामीटर का सेट. क्या इससे हमारे मॉडल को अरेखीय संबंधों को सीखने में मदद मिल सकती है?

व्यायाम 2

हमने मॉडल में चार न्यूरॉन वाली एक छिपी हुई लेयर जोड़ी है.

मान की गणना करने के लिए नेटवर्क के ऊपर चलाएं (▶️) बटन क्लिक करें चार छिपे हुए लेयर नोड और इनपुट वैल्यू के लिए आउटपुट नोड $x_1 = 1.00$, $x_2 = 2.00$, और $x_3 = 3.00$.

फिर मॉडल को एक्सप्लोर करें और उसका इस्तेमाल करके, नीचे दिए गए सवालों के जवाब दें.

कितने पैरामीटर (वेट और पूर्वाग्रह) की वजह से यह न्यूरल होता है नेटवर्क मॉडल में शामिल है?
4
व्यायाम 1 में हमारे मूल मॉडल में चार पैरामीटर: w11, w21, w31 और b. क्योंकि इस मॉडल में एक छिपी हुई लेयर में, ज़्यादा पैरामीटर होते हैं.
12
ध्यान दें कि पैरामीटर की कुल संख्या में दोनों पैरामीटर शामिल होते हैं इसका इस्तेमाल, छिपी हुई लेयर में नोड वैल्यू को कैलकुलेट करने के लिए किया जाता है इनपुट वैल्यू और आउटपुट वैल्यू को कैलकुलेट करने के लिए इस्तेमाल किए गए पैरामीटर को हटाने की ज़रूरत नहीं होती.
16
ध्यान दें कि पैरामीटर की कुल संख्या में वज़न और वैल्यू, दोनों शामिल होते हैं पैरामीटर और बायस पैरामीटर.
21
चार नोड की वैल्यू को कैलकुलेट करने के लिए चार पैरामीटर इस्तेमाल किए जाते हैं छिपी हुई लेयर—3 वेट (हर इनपुट वैल्यू के लिए एक) और पूर्वाग्रह—जिसका कुल योग 16 पैरामीटर हो सकता है. फिर 5 पैरामीटर का उपयोग किया जाता है आउटपुट वैल्यू की गणना करने के लिए: 4 वेट (इसमें मौजूद हर नोड के लिए एक और एक पक्षपात है. कुल मिलाकर, इस न्यूरल नेटवर्क में 21 पैरामीटर का इस्तेमाल करें.

मॉडल पैरामीटर को संशोधित करके देखें और छिपे हुए लेयर नोड की वैल्यू और आउटपुट वैल्यू (आपके पास नीचे दिए गए कैलकुलेशन पैनल को देखकर पता चलेगा कि ये वैल्यू कैसी थीं कैलकुलेट किया गया है).

क्या यह मॉडल, नॉन-लीनियरिटी को सीख सकता है?

हां
छिपी हुई लेयर और आउटपुट नोड के हर नोड पर क्लिक करें, और नीचे दिए गए कैलकुलेशन देखें. आपने किस बारे में देखा ये सभी कैलकुलेशन?
नहीं

छिपी हुई लेयर में हर नोड पर क्लिक करने और समीक्षा करने पर नीचे दी गई गणनाओं के आधार पर, आप देखेंगे कि वे सभी रैखिक हैं (इसमें गुणा और जोड़ की संक्रियाएं शामिल हैं).

अगर आउटपुट नोड पर क्लिक किया जाता है और कैलकुलेशन की जांच की जाती है, तो नीचे, आप देखेंगे कि यह कैलकुलेशन भी लीनियर है. लीनियर रैखिक गणनाओं के आउटपुट पर की गई गणनाएं लीनियर भी है, जिसका मतलब है कि यह मॉडल नॉनलीनियर को नहीं सीख सकता.

अभी तक किसी भी व्यक्ति ने चेक इन नहीं किया है