इस पेज में Google Cloud शब्दावली शब्द शामिल हैं. शब्दावली के सभी शब्दों के लिए, यहां क्लिक करें.
जवाब
एक्सीलेरेटर चिप
डीप लर्निंग एल्गोरिदम के लिए ज़रूरी कुंजी का हिसाब लगाने के लिए, खास हार्डवेयर कॉम्पोनेंट की एक कैटगरी.
आम तौर पर इस्तेमाल किए जाने वाले सीपीयू की तुलना में, एक्सीलेरेटर चिप (या सिर्फ़ एक्सलेरेटर) ट्रेनिंग और अनुमान से जुड़े टास्क की रफ़्तार और क्षमता को काफ़ी बढ़ा सकते हैं. ये न्यूरल नेटवर्क और इस तरह के कंप्यूटेशनल टास्क को ट्रेनिंग देने के लिए सबसे सही होते हैं.
ऐक्सेलरेटर चिप के उदाहरण:
- Google की Tensor प्रोसेसिंग यूनिट (TPU) जिनमें डीप लर्निंग के लिए खास हार्डवेयर मौजूद है.
- NVIDIA के जीपीयू को शुरुआत में, ग्राफ़िक प्रोसेसिंग के लिए डिज़ाइन किया गया था. हालांकि, इन्हें पैरलल प्रोसेसिंग को चालू करने के लिए डिज़ाइन किया गया है. इससे, प्रोसेसिंग की स्पीड बढ़ सकती है.
B
बैच अनुमान
ऐसे कई लेबल नहीं किए गए उदाहरणों पर सुझावों को लागू करने की प्रोसेस जो छोटे-छोटे सबसेट ("बैच") में बंटे होते हैं.
बैच अनुमान, ऐक्सेलरेटर चिप की एक साथ काम करने वाली सुविधाओं का फ़ायदा ले सकता है. इसका मतलब है कि एक से ज़्यादा ऐक्सेलरेटर, बिना लेबल वाले उदाहरणों के अलग-अलग बैच के लिए एक साथ अनुमान लगा सकते हैं. इससे हर सेकंड में अनुमानों की संख्या बढ़ जाती है.
C
Cloud TPU
यह एक खास हार्डवेयर ऐक्सेलरेटर है. इसे Google Cloud पर मशीन लर्निंग के वर्कलोड को तेज़ी से लोड करने के लिए डिज़ाइन किया गया है.
D
डिवाइस
ओवरलोड हुए शब्द, जिसकी ये दो संभावित परिभाषाएं हैं:
- हार्डवेयर की ऐसी कैटगरी जो TensorFlow सेशन चला सकती है. इसमें सीपीयू, जीपीयू, और TPU शामिल हैं.
- ऐक्सेलरेटर चिप पर एमएल मॉडल को ट्रेनिंग देते समय, सिस्टम का वह हिस्सा होता है जो टेन्सर और एम्बेड करने में हेर-फेर करता है. डिवाइस, ऐक्सेलरेटर चिप पर काम करता है. वहीं दूसरी ओर, होस्ट आम तौर पर सीपीयू पर चलता है.
H
होस्ट
ऐक्सेलरेटर चिप पर एमएल मॉडल को ट्रेनिंग देते समय (जीपीयू या टीपीयू), सिस्टम का वह हिस्सा होता है जो इन दोनों को कंट्रोल करता है:
- कोड का पूरा फ़्लो.
- इनपुट पाइपलाइन को निकालना और बदलना.
आम तौर पर, होस्ट सीपीयू पर काम करता है, न कि ऐक्सेलरेटर चिप पर. डिवाइस, एक्सीलेरेटर चिप पर टेंसर में बदलाव करता है.
सोम
मेश
एमएल पैरलल प्रोग्रामिंग में, एक ऐसा शब्द होता है जो TPU चिप को डेटा और मॉडल असाइन करने से जुड़ा होता है. साथ ही, यह तय करता है कि इन वैल्यू को शार्ड करने या उनकी कॉपी कैसे बनाई जाएगी.
मेश बहुत ज़्यादा लोड होने वाला शब्द है जिसका मतलब इनमें से कोई एक हो सकता है:
- TPU चिप का फ़िज़िकल लेआउट.
- यह डेटा और मॉडल को TPU चिप के साथ मैप करने के लिए बनाया गया ऐब्सट्रैक्ट लॉजिकल कंस्ट्रक्शन है.
दोनों ही मामलों में, मेश को आकार के तौर पर बताया जाता है.
S
शार्ड
ट्रेनिंग सेट या मॉडल का लॉजिकल डिवीज़न. आम तौर पर, कुछ प्रोसेस उदाहरण या पैरामीटर को (आम तौर पर) एक जैसे साइज़ के हिस्सों में बांटकर शार्ड बनाती हैं. इसके बाद, हर शार्ड किसी दूसरी मशीन को असाइन किया जाता है.
मॉडल को शार्डिंग करने को मॉडल पैरललिज़्म कहा जाता है; हार्डिंग डेटा को डेटा पैरललिज़्म कहा जाता है.
T
टेन्सर प्रोसेसिंग यूनिट (TPU)
ऐप्लिकेशन के हिसाब से बनाया गया इंटिग्रेटेड सर्किट (एएसआईसी), जो मशीन लर्निंग के वर्कलोड की परफ़ॉर्मेंस को ऑप्टिमाइज़ करता है. इन एएसआईसी को TPU डिवाइस पर कई TPU चिप के तौर पर डिप्लॉय किया जाता है.
TPU
टेन्सर प्रोसेसिंग यूनिट का छोटा नाम.
TPU चिप
प्रोग्राम करने लायक लीनियर ऐलजेब्रा ऐक्सेलरेटर, जिसमें ऑन-चिप ज़्यादा बैंडविड्थ वाली मेमोरी होती है. इसे मशीन लर्निंग के वर्कलोड के हिसाब से ऑप्टिमाइज़ किया जाता है. TPU डिवाइस पर कई TPU चिप डिप्लॉय किए जाते हैं.
TPU डिवाइस
कई TPU चिप, हाई बैंडविड्थ नेटवर्क इंटरफ़ेस, और सिस्टम कूलिंग हार्डवेयर के साथ काम करने वाला प्रिंटेड सर्किट बोर्ड (पीसीबी).
TPU मास्टर
सेंट्रल कोऑर्डिनेटिंग प्रोसेस, जो होस्ट मशीन पर चलती है. यह TPU वर्कर को डेटा, नतीजे, प्रोग्राम, परफ़ॉर्मेंस, और सिस्टम की हेल्थ की जानकारी भेजती और हासिल करती है. TPU मास्टर, TPU डिवाइसों के सेटअप और शटडाउन को भी मैनेज करता है.
TPU नोड
Google Cloud पर खास TPU टाइप वाला TPU संसाधन. TPU नोड, किसी पीयर VPC नेटवर्क से आपके VPC नेटवर्क से कनेक्ट होता है. TPU नोड ऐसे संसाधन हैं जिनके बारे में Cloud TPU API में बताया गया है.
टीपीयू (TPU) पॉड
Google डेटा सेंटर में TPU डिवाइसों का खास कॉन्फ़िगरेशन. TPU पॉड के सभी डिवाइस एक खास हाई-स्पीड नेटवर्क से जुड़े होते हैं. TPU पॉड, TPU डिवाइसों का सबसे बड़ा कॉन्फ़िगरेशन है. यह TPU के किसी खास वर्शन के लिए उपलब्ध होता है.
TPU संसाधन
Google Cloud पर TPU की ऐसी इकाई जिसे बनाया जाता है, मैनेज किया जाता है या इस्तेमाल किया जाता है. उदाहरण के लिए, TPU नोड और TPU के टाइप TPU के संसाधन हैं.
TPU स्लाइस
TPU स्लाइस, TPU पॉड में TPU डिवाइसों का फ़्रैक्शनल हिस्सा होता है. TPU स्लाइस में मौजूद सभी डिवाइस, खास हाई-स्पीड नेटवर्क की मदद से एक-दूसरे से कनेक्ट होते हैं.
TPU का टाइप
TPU के किसी खास वर्शन वाले एक या एक से ज़्यादा TPU डिवाइसों का कॉन्फ़िगरेशन. Google Cloud पर TPU नोड बनाते समय आपको TPU का टाइप चुना जाता है. उदाहरण के लिए, v2-8
TPU टाइप, 8 कोर वाला एक TPU v2 डिवाइस होता है. v3-2048
TPU टाइप में 256
नेटवर्क वाले TPU v3 डिवाइस और कुल 2048 कोर होते हैं. TPU टाइप एक ऐसा संसाधन है जिसके बारे में Cloud TPU API में बताया गया है.
TPU वर्कर
यह प्रोसेस, होस्ट मशीन पर चलती है और TPU डिवाइसों पर मशीन लर्निंग प्रोग्राम एक्ज़ीक्यूट करती है.