मशीन लर्निंग शब्दावली: Google क्लाउड

इस पेज में Google Cloud शब्दावली शब्द शामिल हैं. शब्दावली के सभी शब्दों के लिए, यहां क्लिक करें.

जवाब

एक्सीलेरेटर चिप

#GoogleCloud

डीप लर्निंग एल्गोरिदम के लिए ज़रूरी कुंजी का हिसाब लगाने के लिए, खास हार्डवेयर कॉम्पोनेंट की एक कैटगरी.

आम तौर पर इस्तेमाल किए जाने वाले सीपीयू की तुलना में, एक्सीलेरेटर चिप (या सिर्फ़ एक्सलेरेटर) ट्रेनिंग और अनुमान से जुड़े टास्क की रफ़्तार और क्षमता को काफ़ी बढ़ा सकते हैं. ये न्यूरल नेटवर्क और इस तरह के कंप्यूटेशनल टास्क को ट्रेनिंग देने के लिए सबसे सही होते हैं.

ऐक्सेलरेटर चिप के उदाहरण:

  • Google की Tensor प्रोसेसिंग यूनिट (TPU) जिनमें डीप लर्निंग के लिए खास हार्डवेयर मौजूद है.
  • NVIDIA के जीपीयू को शुरुआत में, ग्राफ़िक प्रोसेसिंग के लिए डिज़ाइन किया गया था. हालांकि, इन्हें पैरलल प्रोसेसिंग को चालू करने के लिए डिज़ाइन किया गया है. इससे, प्रोसेसिंग की स्पीड बढ़ सकती है.

B

बैच अनुमान

#TensorFlow
#GoogleCloud

ऐसे कई लेबल नहीं किए गए उदाहरणों पर सुझावों को लागू करने की प्रोसेस जो छोटे-छोटे सबसेट ("बैच") में बंटे होते हैं.

बैच अनुमान, ऐक्सेलरेटर चिप की एक साथ काम करने वाली सुविधाओं का फ़ायदा ले सकता है. इसका मतलब है कि एक से ज़्यादा ऐक्सेलरेटर, बिना लेबल वाले उदाहरणों के अलग-अलग बैच के लिए एक साथ अनुमान लगा सकते हैं. इससे हर सेकंड में अनुमानों की संख्या बढ़ जाती है.

C

Cloud TPU

#TensorFlow
#GoogleCloud

यह एक खास हार्डवेयर ऐक्सेलरेटर है. इसे Google Cloud पर मशीन लर्निंग के वर्कलोड को तेज़ी से लोड करने के लिए डिज़ाइन किया गया है.

D

डिवाइस

#TensorFlow
#GoogleCloud

ओवरलोड हुए शब्द, जिसकी ये दो संभावित परिभाषाएं हैं:

  1. हार्डवेयर की ऐसी कैटगरी जो TensorFlow सेशन चला सकती है. इसमें सीपीयू, जीपीयू, और TPU शामिल हैं.
  2. ऐक्सेलरेटर चिप पर एमएल मॉडल को ट्रेनिंग देते समय, सिस्टम का वह हिस्सा होता है जो टेन्सर और एम्बेड करने में हेर-फेर करता है. डिवाइस, ऐक्सेलरेटर चिप पर काम करता है. वहीं दूसरी ओर, होस्ट आम तौर पर सीपीयू पर चलता है.

H

होस्ट

#TensorFlow
#GoogleCloud

ऐक्सेलरेटर चिप पर एमएल मॉडल को ट्रेनिंग देते समय (जीपीयू या टीपीयू), सिस्टम का वह हिस्सा होता है जो इन दोनों को कंट्रोल करता है:

  • कोड का पूरा फ़्लो.
  • इनपुट पाइपलाइन को निकालना और बदलना.

आम तौर पर, होस्ट सीपीयू पर काम करता है, न कि ऐक्सेलरेटर चिप पर. डिवाइस, एक्सीलेरेटर चिप पर टेंसर में बदलाव करता है.

सोम

मेश

#TensorFlow
#GoogleCloud

एमएल पैरलल प्रोग्रामिंग में, एक ऐसा शब्द होता है जो TPU चिप को डेटा और मॉडल असाइन करने से जुड़ा होता है. साथ ही, यह तय करता है कि इन वैल्यू को शार्ड करने या उनकी कॉपी कैसे बनाई जाएगी.

मेश बहुत ज़्यादा लोड होने वाला शब्द है जिसका मतलब इनमें से कोई एक हो सकता है:

  • TPU चिप का फ़िज़िकल लेआउट.
  • यह डेटा और मॉडल को TPU चिप के साथ मैप करने के लिए बनाया गया ऐब्सट्रैक्ट लॉजिकल कंस्ट्रक्शन है.

दोनों ही मामलों में, मेश को आकार के तौर पर बताया जाता है.

S

शार्ड

#TensorFlow
#GoogleCloud

ट्रेनिंग सेट या मॉडल का लॉजिकल डिवीज़न. आम तौर पर, कुछ प्रोसेस उदाहरण या पैरामीटर को (आम तौर पर) एक जैसे साइज़ के हिस्सों में बांटकर शार्ड बनाती हैं. इसके बाद, हर शार्ड किसी दूसरी मशीन को असाइन किया जाता है.

मॉडल को शार्डिंग करने को मॉडल पैरललिज़्म कहा जाता है; हार्डिंग डेटा को डेटा पैरललिज़्म कहा जाता है.

T

टेन्सर प्रोसेसिंग यूनिट (TPU)

#TensorFlow
#GoogleCloud

ऐप्लिकेशन के हिसाब से बनाया गया इंटिग्रेटेड सर्किट (एएसआईसी), जो मशीन लर्निंग के वर्कलोड की परफ़ॉर्मेंस को ऑप्टिमाइज़ करता है. इन एएसआईसी को TPU डिवाइस पर कई TPU चिप के तौर पर डिप्लॉय किया जाता है.

TPU

#TensorFlow
#GoogleCloud

टेन्सर प्रोसेसिंग यूनिट का छोटा नाम.

TPU चिप

#TensorFlow
#GoogleCloud

प्रोग्राम करने लायक लीनियर ऐलजेब्रा ऐक्सेलरेटर, जिसमें ऑन-चिप ज़्यादा बैंडविड्थ वाली मेमोरी होती है. इसे मशीन लर्निंग के वर्कलोड के हिसाब से ऑप्टिमाइज़ किया जाता है. TPU डिवाइस पर कई TPU चिप डिप्लॉय किए जाते हैं.

TPU डिवाइस

#TensorFlow
#GoogleCloud

कई TPU चिप, हाई बैंडविड्थ नेटवर्क इंटरफ़ेस, और सिस्टम कूलिंग हार्डवेयर के साथ काम करने वाला प्रिंटेड सर्किट बोर्ड (पीसीबी).

TPU मास्टर

#TensorFlow
#GoogleCloud

सेंट्रल कोऑर्डिनेटिंग प्रोसेस, जो होस्ट मशीन पर चलती है. यह TPU वर्कर को डेटा, नतीजे, प्रोग्राम, परफ़ॉर्मेंस, और सिस्टम की हेल्थ की जानकारी भेजती और हासिल करती है. TPU मास्टर, TPU डिवाइसों के सेटअप और शटडाउन को भी मैनेज करता है.

TPU नोड

#TensorFlow
#GoogleCloud

Google Cloud पर खास TPU टाइप वाला TPU संसाधन. TPU नोड, किसी पीयर VPC नेटवर्क से आपके VPC नेटवर्क से कनेक्ट होता है. TPU नोड ऐसे संसाधन हैं जिनके बारे में Cloud TPU API में बताया गया है.

टीपीयू (TPU) पॉड

#TensorFlow
#GoogleCloud

Google डेटा सेंटर में TPU डिवाइसों का खास कॉन्फ़िगरेशन. TPU पॉड के सभी डिवाइस एक खास हाई-स्पीड नेटवर्क से जुड़े होते हैं. TPU पॉड, TPU डिवाइसों का सबसे बड़ा कॉन्फ़िगरेशन है. यह TPU के किसी खास वर्शन के लिए उपलब्ध होता है.

TPU संसाधन

#TensorFlow
#GoogleCloud

Google Cloud पर TPU की ऐसी इकाई जिसे बनाया जाता है, मैनेज किया जाता है या इस्तेमाल किया जाता है. उदाहरण के लिए, TPU नोड और TPU के टाइप TPU के संसाधन हैं.

TPU स्लाइस

#TensorFlow
#GoogleCloud

TPU स्लाइस, TPU पॉड में TPU डिवाइसों का फ़्रैक्शनल हिस्सा होता है. TPU स्लाइस में मौजूद सभी डिवाइस, खास हाई-स्पीड नेटवर्क की मदद से एक-दूसरे से कनेक्ट होते हैं.

TPU का टाइप

#TensorFlow
#GoogleCloud

TPU के किसी खास वर्शन वाले एक या एक से ज़्यादा TPU डिवाइसों का कॉन्फ़िगरेशन. Google Cloud पर TPU नोड बनाते समय आपको TPU का टाइप चुना जाता है. उदाहरण के लिए, v2-8 TPU टाइप, 8 कोर वाला एक TPU v2 डिवाइस होता है. v3-2048 TPU टाइप में 256 नेटवर्क वाले TPU v3 डिवाइस और कुल 2048 कोर होते हैं. TPU टाइप एक ऐसा संसाधन है जिसके बारे में Cloud TPU API में बताया गया है.

TPU वर्कर

#TensorFlow
#GoogleCloud

यह प्रोसेस, होस्ट मशीन पर चलती है और TPU डिवाइसों पर मशीन लर्निंग प्रोग्राम एक्ज़ीक्यूट करती है.