इस पेज पर, Google Cloud की ग्लॉसरी में शामिल शब्दों की जानकारी दी गई है. ग्लॉसरी में मौजूद सभी शब्दों के लिए, यहां क्लिक करें.
A
ऐक्सेलरेटर चिप
खास हार्डवेयर कॉम्पोनेंट की कैटगरी, जिसे डीप लर्निंग एल्गोरिदम के लिए ज़रूरी अहम कैलकुलेशन करने के लिए डिज़ाइन किया गया है.
सामान्य काम के लिए इस्तेमाल होने वाले सीपीयू की तुलना में, ऐक्सेलरेटर चिप (या कम शब्दों में ऐक्सेलरेटर) से, ट्रेनिंग और अनुमान लगाने वाले टास्क की स्पीड और परफ़ॉर्मेंस में काफ़ी बढ़ोतरी हो सकती है. ये न्यूरल नेटवर्क को ट्रेन करने और कंप्यूटेशनल तौर पर ज़्यादा मेहनत वाले मिलते-जुलते टास्क के लिए बेहतरीन हैं.
ऐक्सेलरेटर चिप के उदाहरणों में ये शामिल हैं:
- Google की टेंसर प्रोसेसिंग यूनिट (TPUs), जिनमें डीप लर्निंग के लिए खास हार्डवेयर होता है.
- NVIDIA के जीपीयू, जिन्हें शुरुआत में ग्राफ़िक्स प्रोसेसिंग के लिए डिज़ाइन किया गया था, अब इन्हें पैरलल प्रोसेसिंग के लिए डिज़ाइन किया गया है. इससे प्रोसेसिंग की स्पीड काफ़ी बढ़ सकती है.
B
एक साथ कई अनुमान लगाना
बिना लेबल वाले कई उदाहरणों के आधार पर, अनुमान नतीजे निकालने की प्रोसेस. इन उदाहरणों को छोटे सबसेट ("बैच") में बांटा जाता है.
एक साथ कई अनुमान लगाने की सुविधा, ऐक्सेलरेटर चिप की पैरलल प्रोसेसिंग की सुविधाओं का फ़ायदा ले सकती है. इसका मतलब है कि एक से ज़्यादा ऐक्सेलरेटर, एक साथ लेबल न किए गए उदाहरणों के अलग-अलग बैच के आधार पर अनुमान लगा सकते हैं. इससे हर सेकंड में अनुमान लगाने की संख्या काफ़ी बढ़ जाती है.
ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में प्रोडक्शन एमएल सिस्टम: स्टैटिक बनाम डाइनैमिक अनुमानी देखें.
C
Cloud TPU
यह एक खास हार्डवेयर एक्सेलरेटर है, जिसे Google Cloud पर मशीन लर्निंग वर्कलोड को तेज़ करने के लिए डिज़ाइन किया गया है.
D
डिवाइस
ओवरलोड किया गया शब्द, जिसकी ये दो संभावित परिभाषाएं हैं:
- हार्डवेयर की एक कैटगरी, जिसमें सीपीयू, जीपीयू, और TPU शामिल हैं. ये हार्डवेयर, TensorFlow सेशन चला सकते हैं.
- ऐक्सेलरेटर चिप (GPU या TPU) पर किसी एमएल मॉडल को ट्रेनिंग देते समय, सिस्टम का वह हिस्सा जो असल में टेंसर और एम्बेड में बदलाव करता है. यह डिवाइस, ऐक्सेलरेटर चिप पर काम करता है. इसके उलट, होस्ट आम तौर पर सीपीयू पर चलता है.
H
होस्ट
ऐक्सेलरेटर चिप (जीपीयू या TPU) पर एमएल मॉडल को ट्रेनिंग देते समय, सिस्टम का वह हिस्सा इन दोनों को कंट्रोल करता है:
- कोड का पूरा फ़्लो.
- इनपुट पाइपलाइन को निकालना और उसमें बदलाव करना.
आम तौर पर, होस्ट ऐक्सेलरेटर चिप पर नहीं, बल्कि सीपीयू पर चलता है. डिवाइस, ऐक्सेलरेटर चिप पर टेंसर में बदलाव करता है.
M
मेश
एमएल पैरलल प्रोग्रामिंग में, यह TPU चिप को डेटा और मॉडल असाइन करने से जुड़ा एक शब्द है. साथ ही, यह तय करने से जुड़ा है कि इन वैल्यू को कैसे शेयर किया जाएगा या डुप्लीकेट किया जाएगा.
मेश एक ऐसा शब्द है जिसका इस्तेमाल कई कामों के लिए किया जाता है. इसका मतलब इनमें से कोई एक हो सकता है:
- TPU चिप का फ़िज़िकल लेआउट.
- डेटा और मॉडल को TPU चिप पर मैप करने के लिए, एक ऐब्स्ट्रैक्ट लॉजिकल कंस्ट्रक्ट.
दोनों ही मामलों में, मेश को आकार के तौर पर दिखाया जाता है.
S
शर्ड
ट्रेनिंग सेट या मॉडल का लॉजिकल डिवीज़न. आम तौर पर, कुछ प्रोसेस उदाहरणों या पैरामीटर को बराबर साइज़ के हिस्सों में बांटकर, शर्ड बनाती हैं. इसके बाद, हर शर्ड को किसी अलग मशीन को असाइन किया जाता है.
मॉडल को अलग-अलग हिस्सों में बांटने को मॉडल पैरलेलिज्म कहा जाता है; डेटा को अलग-अलग हिस्सों में बांटने को डेटा पैरलेलिज्म कहा जाता है.
T
टेंसर प्रोसेसिंग यूनिट (TPU)
ऐप्लिकेशन के हिसाब से बनाया गया इंटिग्रेटेड सर्किट (एएसआईसी), जो मशीन लर्निंग वर्कलोड की परफ़ॉर्मेंस को ऑप्टिमाइज़ करता है. इन एएसआईसी को TPU डिवाइस पर, कई TPU चिप के तौर पर डिप्लॉय किया जाता है.
टीपीयू (TPU)
टेंसर प्रोसेसिंग यूनिट का छोटा नाम.
TPU चिप
प्रोग्राम किया जा सकने वाला लीनियर ऐल्जेब्रा एक्सेलरेटर, जिसमें चिप पर हाई बैंडविथ वाली मेमोरी होती है. इसे मशीन लर्निंग के ज़्यादा काम के लिए ऑप्टिमाइज़ किया गया है. TPU डिवाइस पर कई TPU चिप डिप्लॉय किए जाते हैं.
TPU डिवाइस
एक प्रिंटेड सर्किट बोर्ड (पीसीबी), जिसमें कई TPU चिप, ज़्यादा बैंडविड्थ वाले नेटवर्क इंटरफ़ेस, और सिस्टम कूलिंग हार्डवेयर होते हैं.
TPU मास्टर
होस्ट मशीन पर चलने वाली मुख्य कोऑर्डिनेशन प्रोसेस, जो TPU वर्कर्स को डेटा, नतीजे, प्रोग्राम, परफ़ॉर्मेंस, और सिस्टम की परफ़ॉर्मेंस की जानकारी भेजती है और उनसे जानकारी पाती है. TPU मास्टर, TPU डिवाइसों के सेटअप और बंद होने को भी मैनेज करता है.
TPU नोड
Google Cloud पर मौजूद ऐसा TPU रिसॉर्स जिसमें कोई खास TPU टाइप हो. TPU नोड, पियर वीपीसी नेटवर्क से आपके वीपीसी नेटवर्क से कनेक्ट होता है. TPU नोड, Cloud TPU API में बताए गए संसाधन हैं.
टीपीयू (TPU) पॉड
Google के डेटा सेंटर में, TPU डिवाइसों का कोई खास कॉन्फ़िगरेशन. TPU पॉड में मौजूद सभी डिवाइस, एक खास ज़्यादा स्पीड वाले नेटवर्क से एक-दूसरे से कनेक्ट होते हैं. TPU पॉड, किसी खास TPU वर्शन के लिए उपलब्ध TPU डिवाइसों का सबसे बड़ा कॉन्फ़िगरेशन होता है.
TPU रिसॉर्स
Google Cloud पर मौजूद TPU इकाई, जिसे आपने बनाया है, मैनेज किया है या इस्तेमाल किया है. उदाहरण के लिए, TPU नोड और TPU टाइप, TPU संसाधन हैं.
TPU स्लाइस
TPU स्लाइस, TPU पॉड में मौजूद TPU डिवाइसों का एक छोटा हिस्सा होता है. TPU स्लाइस में मौजूद सभी डिवाइस, एक खास ज़्यादा स्पीड वाले नेटवर्क से एक-दूसरे से कनेक्ट होते हैं.
TPU का टाइप
किसी खास TPU हार्डवेयर वर्शन के साथ, एक या एक से ज़्यादा TPU डिवाइसों का कॉन्फ़िगरेशन. Google Cloud पर TPU नोड बनाते समय, TPU का टाइप चुना जाता है. उदाहरण के लिए, v2-8
TPU टाइप, आठ कोर वाला एक TPU v2 डिवाइस है. v3-2048
टाइप के TPU में, 256 कनेक्ट किए गए TPU v3 डिवाइस और कुल 2,048 कोर होते हैं. TPU टाइप, Cloud TPU API में बताए गए संसाधन हैं.
TPU वर्कर
यह एक प्रोसेस है, जो होस्ट मशीन पर चलती है और TPU डिवाइसों पर मशीन लर्निंग प्रोग्राम को लागू करती है.