मशीन लर्निंग शब्दावली: Google क्लाउड

इस पेज पर, Google Cloud की ग्लॉसरी में शामिल शब्दों की जानकारी दी गई है. ग्लॉसरी में मौजूद सभी शब्दों के लिए, यहां क्लिक करें.

A

ऐक्सेलरेटर चिप

#GoogleCloud

खास हार्डवेयर कॉम्पोनेंट की कैटगरी, जिसे डीप लर्निंग एल्गोरिदम के लिए ज़रूरी अहम कैलकुलेशन करने के लिए डिज़ाइन किया गया है.

सामान्य काम के लिए इस्तेमाल होने वाले सीपीयू की तुलना में, ऐक्सेलरेटर चिप (या कम शब्दों में ऐक्सेलरेटर) से, ट्रेनिंग और अनुमान लगाने वाले टास्क की स्पीड और परफ़ॉर्मेंस में काफ़ी बढ़ोतरी हो सकती है. ये न्यूरल नेटवर्क को ट्रेन करने और कंप्यूटेशनल तौर पर ज़्यादा मेहनत वाले मिलते-जुलते टास्क के लिए बेहतरीन हैं.

ऐक्सेलरेटर चिप के उदाहरणों में ये शामिल हैं:

  • Google की टेंसर प्रोसेसिंग यूनिट (TPUs), जिनमें डीप लर्निंग के लिए खास हार्डवेयर होता है.
  • NVIDIA के जीपीयू, जिन्हें शुरुआत में ग्राफ़िक्स प्रोसेसिंग के लिए डिज़ाइन किया गया था, अब इन्हें पैरलल प्रोसेसिंग के लिए डिज़ाइन किया गया है. इससे प्रोसेसिंग की स्पीड काफ़ी बढ़ सकती है.

B

एक साथ कई अनुमान लगाना

#TensorFlow
#GoogleCloud

बिना लेबल वाले कई उदाहरणों के आधार पर, अनुमान नतीजे निकालने की प्रोसेस. इन उदाहरणों को छोटे सबसेट ("बैच") में बांटा जाता है.

एक साथ कई अनुमान लगाने की सुविधा, ऐक्सेलरेटर चिप की पैरलल प्रोसेसिंग की सुविधाओं का फ़ायदा ले सकती है. इसका मतलब है कि एक से ज़्यादा ऐक्सेलरेटर, एक साथ लेबल न किए गए उदाहरणों के अलग-अलग बैच के आधार पर अनुमान लगा सकते हैं. इससे हर सेकंड में अनुमान लगाने की संख्या काफ़ी बढ़ जाती है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में प्रोडक्शन एमएल सिस्टम: स्टैटिक बनाम डाइनैमिक अनुमानी देखें.

C

Cloud TPU

#TensorFlow
#GoogleCloud

यह एक खास हार्डवेयर एक्सेलरेटर है, जिसे Google Cloud पर मशीन लर्निंग वर्कलोड को तेज़ करने के लिए डिज़ाइन किया गया है.

D

डिवाइस

#TensorFlow
#GoogleCloud

ओवरलोड किया गया शब्द, जिसकी ये दो संभावित परिभाषाएं हैं:

  1. हार्डवेयर की एक कैटगरी, जिसमें सीपीयू, जीपीयू, और TPU शामिल हैं. ये हार्डवेयर, TensorFlow सेशन चला सकते हैं.
  2. ऐक्सेलरेटर चिप (GPU या TPU) पर किसी एमएल मॉडल को ट्रेनिंग देते समय, सिस्टम का वह हिस्सा जो असल में टेंसर और एम्बेड में बदलाव करता है. यह डिवाइस, ऐक्सेलरेटर चिप पर काम करता है. इसके उलट, होस्ट आम तौर पर सीपीयू पर चलता है.

H

होस्ट

#TensorFlow
#GoogleCloud

ऐक्सेलरेटर चिप (जीपीयू या TPU) पर एमएल मॉडल को ट्रेनिंग देते समय, सिस्टम का वह हिस्सा इन दोनों को कंट्रोल करता है:

  • कोड का पूरा फ़्लो.
  • इनपुट पाइपलाइन को निकालना और उसमें बदलाव करना.

आम तौर पर, होस्ट ऐक्सेलरेटर चिप पर नहीं, बल्कि सीपीयू पर चलता है. डिवाइस, ऐक्सेलरेटर चिप पर टेंसर में बदलाव करता है.

M

मेश

#TensorFlow
#GoogleCloud

एमएल पैरलल प्रोग्रामिंग में, यह TPU चिप को डेटा और मॉडल असाइन करने से जुड़ा एक शब्द है. साथ ही, यह तय करने से जुड़ा है कि इन वैल्यू को कैसे शेयर किया जाएगा या डुप्लीकेट किया जाएगा.

मेश एक ऐसा शब्द है जिसका इस्तेमाल कई कामों के लिए किया जाता है. इसका मतलब इनमें से कोई एक हो सकता है:

  • TPU चिप का फ़िज़िकल लेआउट.
  • डेटा और मॉडल को TPU चिप पर मैप करने के लिए, एक ऐब्स्ट्रैक्ट लॉजिकल कंस्ट्रक्ट.

दोनों ही मामलों में, मेश को आकार के तौर पर दिखाया जाता है.

S

शर्ड

#TensorFlow
#GoogleCloud

ट्रेनिंग सेट या मॉडल का लॉजिकल डिवीज़न. आम तौर पर, कुछ प्रोसेस उदाहरणों या पैरामीटर को बराबर साइज़ के हिस्सों में बांटकर, शर्ड बनाती हैं. इसके बाद, हर शर्ड को किसी अलग मशीन को असाइन किया जाता है.

मॉडल को अलग-अलग हिस्सों में बांटने को मॉडल पैरलेलिज्म कहा जाता है; डेटा को अलग-अलग हिस्सों में बांटने को डेटा पैरलेलिज्म कहा जाता है.

T

टेंसर प्रोसेसिंग यूनिट (TPU)

#TensorFlow
#GoogleCloud

ऐप्लिकेशन के हिसाब से बनाया गया इंटिग्रेटेड सर्किट (एएसआईसी), जो मशीन लर्निंग वर्कलोड की परफ़ॉर्मेंस को ऑप्टिमाइज़ करता है. इन एएसआईसी को TPU डिवाइस पर, कई TPU चिप के तौर पर डिप्लॉय किया जाता है.

टीपीयू (TPU)

#TensorFlow
#GoogleCloud

टेंसर प्रोसेसिंग यूनिट का छोटा नाम.

TPU चिप

#TensorFlow
#GoogleCloud

प्रोग्राम किया जा सकने वाला लीनियर ऐल्जेब्रा एक्सेलरेटर, जिसमें चिप पर हाई बैंडविथ वाली मेमोरी होती है. इसे मशीन लर्निंग के ज़्यादा काम के लिए ऑप्टिमाइज़ किया गया है. TPU डिवाइस पर कई TPU चिप डिप्लॉय किए जाते हैं.

TPU डिवाइस

#TensorFlow
#GoogleCloud

एक प्रिंटेड सर्किट बोर्ड (पीसीबी), जिसमें कई TPU चिप, ज़्यादा बैंडविड्थ वाले नेटवर्क इंटरफ़ेस, और सिस्टम कूलिंग हार्डवेयर होते हैं.

TPU मास्टर

#TensorFlow
#GoogleCloud

होस्ट मशीन पर चलने वाली मुख्य कोऑर्डिनेशन प्रोसेस, जो TPU वर्कर्स को डेटा, नतीजे, प्रोग्राम, परफ़ॉर्मेंस, और सिस्टम की परफ़ॉर्मेंस की जानकारी भेजती है और उनसे जानकारी पाती है. TPU मास्टर, TPU डिवाइसों के सेटअप और बंद होने को भी मैनेज करता है.

TPU नोड

#TensorFlow
#GoogleCloud

Google Cloud पर मौजूद ऐसा TPU रिसॉर्स जिसमें कोई खास TPU टाइप हो. TPU नोड, पियर वीपीसी नेटवर्क से आपके वीपीसी नेटवर्क से कनेक्ट होता है. TPU नोड, Cloud TPU API में बताए गए संसाधन हैं.

टीपीयू (TPU) पॉड

#TensorFlow
#GoogleCloud

Google के डेटा सेंटर में, TPU डिवाइसों का कोई खास कॉन्फ़िगरेशन. TPU पॉड में मौजूद सभी डिवाइस, एक खास ज़्यादा स्पीड वाले नेटवर्क से एक-दूसरे से कनेक्ट होते हैं. TPU पॉड, किसी खास TPU वर्शन के लिए उपलब्ध TPU डिवाइसों का सबसे बड़ा कॉन्फ़िगरेशन होता है.

TPU रिसॉर्स

#TensorFlow
#GoogleCloud

Google Cloud पर मौजूद TPU इकाई, जिसे आपने बनाया है, मैनेज किया है या इस्तेमाल किया है. उदाहरण के लिए, TPU नोड और TPU टाइप, TPU संसाधन हैं.

TPU स्लाइस

#TensorFlow
#GoogleCloud

TPU स्लाइस, TPU पॉड में मौजूद TPU डिवाइसों का एक छोटा हिस्सा होता है. TPU स्लाइस में मौजूद सभी डिवाइस, एक खास ज़्यादा स्पीड वाले नेटवर्क से एक-दूसरे से कनेक्ट होते हैं.

TPU का टाइप

#TensorFlow
#GoogleCloud

किसी खास TPU हार्डवेयर वर्शन के साथ, एक या एक से ज़्यादा TPU डिवाइसों का कॉन्फ़िगरेशन. Google Cloud पर TPU नोड बनाते समय, TPU का टाइप चुना जाता है. उदाहरण के लिए, v2-8 TPU टाइप, आठ कोर वाला एक TPU v2 डिवाइस है. v3-2048 टाइप के TPU में, 256 कनेक्ट किए गए TPU v3 डिवाइस और कुल 2,048 कोर होते हैं. TPU टाइप, Cloud TPU API में बताए गए संसाधन हैं.

TPU वर्कर

#TensorFlow
#GoogleCloud

यह एक प्रोसेस है, जो होस्ट मशीन पर चलती है और TPU डिवाइसों पर मशीन लर्निंग प्रोग्राम को लागू करती है.