मशीन लर्निंग शब्दावली: TensorFlow

इस पेज में TensorFlow की ग्लॉसरी शब्द मौजूद हैं. शब्दावली के सभी शब्दों के लिए, यहां क्लिक करें.

B

बैच अनुमान

#TensorFlow
#GoogleCloud

ऐसे कई लेबल नहीं किए गए उदाहरणों पर सुझावों को लागू करने की प्रोसेस जो छोटे-छोटे सबसेट ("बैच") में बंटे होते हैं.

बैच अनुमान, ऐक्सेलरेटर चिप की एक साथ काम करने वाली सुविधाओं का फ़ायदा ले सकता है. इसका मतलब है कि एक से ज़्यादा ऐक्सेलरेटर, बिना लेबल वाले उदाहरणों के अलग-अलग बैच के लिए एक साथ अनुमान लगा सकते हैं. इससे हर सेकंड में अनुमानों की संख्या बढ़ जाती है.

C

Cloud TPU

#TensorFlow
#GoogleCloud

यह एक खास हार्डवेयर ऐक्सेलरेटर है. इसे Google Cloud पर मशीन लर्निंग के वर्कलोड को तेज़ी से लोड करने के लिए डिज़ाइन किया गया है.

D

डेटासेट एपीआई (tf.data)

#TensorFlow

यह हाई-लेवल TensorFlow एपीआई है. यह डेटा पढ़ने और उसे ऐसे फ़ॉर्म में बदलने के लिए है जो मशीन लर्निंग एल्गोरिदम के लिए ज़रूरी है. tf.data.Dataset ऑब्जेक्ट, एलिमेंट का क्रम दिखाता है. इसमें हर एलिमेंट में एक या उससे ज़्यादा टेन्सर होते हैं. tf.data.Iterator ऑब्जेक्ट, Dataset के एलिमेंट का ऐक्सेस देता है.

डेटासेट एपीआई के बारे में ज़्यादा जानकारी के लिए, TensorFlow प्रोग्रामर की गाइड में दिया गया tf.data: Build TensorFlow इनपुट पाइपलाइन देखें.

डिवाइस

#TensorFlow
#GoogleCloud

ओवरलोड हुए शब्द, जिसकी ये दो संभावित परिभाषाएं हैं:

  1. हार्डवेयर की ऐसी कैटगरी जो TensorFlow सेशन चला सकती है. इसमें सीपीयू, जीपीयू, और TPU शामिल हैं.
  2. ऐक्सेलरेटर चिप पर एमएल मॉडल को ट्रेनिंग देते समय, सिस्टम का वह हिस्सा होता है जो टेन्सर और एम्बेड करने में हेर-फेर करता है. डिवाइस, ऐक्सेलरेटर चिप पर काम करता है. वहीं दूसरी ओर, होस्ट आम तौर पर सीपीयू पर चलता है.

E

ईगर एक्ज़ीक्यूशन

#TensorFlow

TensorFlow प्रोग्रामिंग का ऐसा प्लैटफ़ॉर्म जिसमें operations तुरंत चलते हैं. वहीं दूसरी ओर, ग्राफ़ लागू करने में बताई गई कार्रवाइयां तब तक नहीं चलती हैं, जब तक उनका साफ़ तौर पर आकलन नहीं किया जाता. एक्ज़ीक्यूशन एक ज़रूरी इंटरफ़ेस है. यह बहुत कुछ प्रोग्रामिंग भाषाओं के कोड की तरह है. आम तौर पर, तेज़ी से काम करने वाले प्रोग्राम को ग्राफ़ पर एक्ज़ीक्यूशन प्रोग्राम के मुकाबले डीबग करना ज़्यादा आसान होता है.

अनुमान

#TensorFlow

TensorFlow एपीआई अब काम नहीं करता. अनुमान के बजाय, tf.keras का इस्तेमाल करें.

म॰

फ़ीचर इंजीनियरिंग

#fundamentals
#TensorFlow

ऐसी प्रोसेस जिसमें ये चरण शामिल होते हैं:

  1. यह तय करना कि किसी मॉडल की ट्रेनिंग के लिए कौनसी सुविधाएं काम की हो सकती हैं.
  2. डेटासेट से रॉ डेटा को उन सुविधाओं के बेहतर वर्शन में बदलना.

उदाहरण के लिए, आपको यह तय करना पड़ सकता है कि temperature काम की सुविधा हो सकती है. इसके बाद, बकेटिंग का इस्तेमाल करके एक्सपेरिमेंट किया जा सकता है, ताकि यह ऑप्टिमाइज़ किया जा सके कि मॉडल, अलग-अलग temperature रेंज से क्या सीख सकता है.

फ़ीचर इंजीनियरिंग को कभी-कभी सुविधा से हटाना या फ़ेचुरेशन कहा जाता है.

सुविधा की खास बातें

#TensorFlow

यह tf.Example प्रोटोकॉल बफ़र से, सुविधाओं का डेटा एक्सट्रैक्ट करने के लिए ज़रूरी जानकारी देता है. ऐसा इसलिए, क्योंकि tf.Example प्रोटोकॉल बफ़र, सिर्फ़ डेटा के लिए एक कंटेनर है. इसलिए, आपको यह जानकारी देनी होगी:

  • एक्सट्रैक्ट किया जाने वाला डेटा (यानी, सुविधाओं की कुंजियां)
  • डेटा टाइप (उदाहरण के लिए, फ़्लोट या int)
  • लंबाई (तय या अलग-अलग)

G

ग्राफ़

#TensorFlow

TensorFlow में, एक कैलकुलेशन स्पेसिफ़िकेशन. ग्राफ़ में मौजूद नोड, ऑपरेशन को दिखाते हैं. किनारे डायरेक्ट किए जाते हैं और इनसे पता चलता है कि किसी कार्रवाई के नतीजे (टेन्सर) को किसी दूसरे ऑपरेशन के तौर पर पास किया जा रहा है. ग्राफ़ को विज़ुअलाइज़ करने के लिए, TensorBoard का इस्तेमाल करें.

ग्राफ़ बनाना

#TensorFlow

TensorFlow का एक प्रोग्रामिंग एनवायरमेंट है, जिसमें प्रोग्राम सबसे पहले ग्राफ़ बनाता है और फिर उस ग्राफ़ के पूरे या कुछ हिस्से को एक्ज़ीक्यूट करता है. TensorFlow 1.x में, ग्राफ़ चलाना डिफ़ॉल्ट रूप से एक्ज़ीक्यूशन मोड है.

एक्ज़ीक्यूशन के साथ कंट्रास्ट करें.

H

होस्ट

#TensorFlow
#GoogleCloud

ऐक्सेलरेटर चिप पर एमएल मॉडल को ट्रेनिंग देते समय (जीपीयू या टीपीयू), सिस्टम का वह हिस्सा होता है जो इन दोनों को कंट्रोल करता है:

  • कोड का पूरा फ़्लो.
  • इनपुट पाइपलाइन को निकालना और बदलना.

आम तौर पर, होस्ट सीपीयू पर काम करता है, न कि ऐक्सेलरेटर चिप पर. डिवाइस, एक्सीलेरेटर चिप पर टेंसर में बदलाव करता है.

L

लेयर एपीआई (tf.layers)

#TensorFlow

लेयर के कंपोज़िशन के तौर पर डीप न्यूरल नेटवर्क बनाने के लिए, TensorFlow एपीआई. लेयर एपीआई की मदद से, अलग-अलग तरह की लेयर बनाई जा सकती हैं, जैसे:

लेयर एपीआई, Keras लेयर के लिए एपीआई से जुड़े नियमों का पालन करता है. इसका मतलब है कि एक अलग प्रीफ़िक्स के अलावा, लेयर एपीआई के सभी फ़ंक्शन के नाम और हस्ताक्षर, Keras लेयर एपीआई में मौजूद मिलते-जुलते फ़ंक्शन के नाम और सिग्नेचर के समान होते हैं.

सोम

मेश

#TensorFlow
#GoogleCloud

एमएल पैरलल प्रोग्रामिंग में, एक ऐसा शब्द होता है जो TPU चिप को डेटा और मॉडल असाइन करने से जुड़ा होता है. साथ ही, यह तय करता है कि इन वैल्यू को शार्ड करने या उनकी कॉपी कैसे बनाई जाएगी.

मेश बहुत ज़्यादा लोड होने वाला शब्द है जिसका मतलब इनमें से कोई एक हो सकता है:

  • TPU चिप का फ़िज़िकल लेआउट.
  • यह डेटा और मॉडल को TPU चिप के साथ मैप करने के लिए बनाया गया ऐब्सट्रैक्ट लॉजिकल कंस्ट्रक्शन है.

दोनों ही मामलों में, मेश को आकार के तौर पर बताया जाता है.

मीट्रिक

#TensorFlow

वह आंकड़ा, जो आपके लिए अहम है.

मकसद एक ऐसी मेट्रिक है जिसे मशीन लर्निंग सिस्टम ऑप्टिमाइज़ करने की कोशिश करता है.

नहीं

नोड (TensorFlow ग्राफ़)

#TensorFlow

TensorFlow के ग्राफ़ में एक कार्रवाई.

O

संचालन (ऑप)

#TensorFlow

TensorFlow में, ऐसी कोई भी प्रोसेस जो Tensor बनाती है, उसमें बदलाव करती है या उसे नष्ट कर देती है. जैसे, मैट्रिक्स गुणा एक ऐसी कार्रवाई है जिसमें दो Tensor को इनपुट के तौर पर लिया जाता है और आउटपुट के तौर पर एक Tensor जनरेट किया जाता है.

P

पैरामीटर सर्वर (PS)

#TensorFlow

ऐसा जॉब जो डिस्ट्रिब्यूटेड सेटिंग में मॉडल के पैरामीटर को ट्रैक करता है.

सवाल

सूची

#TensorFlow

TensorFlow ऑपरेशन, जो सूची का डेटा स्ट्रक्चर लागू करता है. आम तौर पर, I/O में इस्तेमाल किया जाता है.

R

रैंक (टेन्सर)

#TensorFlow

टेन्सर में डाइमेंशन की संख्या. उदाहरण के लिए, अदिश की रैंक 0 है, वेक्टर की रैंक 1 है, और आव्यूह की रैंक 2 है.

इसे रैंक (ऑर्डर की संख्या) समझने की भूल न करें.

रूट डायरेक्ट्री

#TensorFlow

आपकी तय की गई डायरेक्ट्री, जिसमें TensorFlow की सबडायरेक्ट्री और कई मॉडल की इवेंट फ़ाइलें होस्ट की जाती हैं.

S

SavedModel

#TensorFlow

TensorFlow के मॉडल सेव करने और वापस लाने के लिए सुझाया गया फ़ॉर्मैट. सेव मॉडल एक लैंग्वेज न्यूट्रल और रिकवर किया जा सकने वाला सीरियलाइज़ेशन फ़ॉर्मैट है. इसकी मदद से, ऊंचे लेवल के सिस्टम और टूल को TensorFlow के मॉडल बनाने, इस्तेमाल करने, और उनमें बदलाव करने की सुविधा मिलती है.

पूरी जानकारी के लिए, TensorFlow प्रोग्रामर की गाइड में, सेव करने और वापस लाने का चैप्टर देखें.

सेवर

#TensorFlow

TensorFlow ऑब्जेक्ट मॉडल चेकपॉइंट को सेव करने के लिए काम करता है.

शार्ड

#TensorFlow
#GoogleCloud

ट्रेनिंग सेट या मॉडल का लॉजिकल डिवीज़न. आम तौर पर, कुछ प्रोसेस उदाहरण या पैरामीटर को (आम तौर पर) एक जैसे साइज़ के हिस्सों में बांटकर शार्ड बनाती हैं. इसके बाद, हर शार्ड किसी दूसरी मशीन को असाइन किया जाता है.

मॉडल को शार्डिंग करने को मॉडल पैरललिज़्म कहा जाता है; हार्डिंग डेटा को डेटा पैरललिज़्म कहा जाता है.

खास जानकारी

#TensorFlow

TensorFlow में, किसी खास चरण के हिसाब से तय की गई वैल्यू या वैल्यू का सेट. आम तौर पर इसका इस्तेमाल ट्रेनिंग के दौरान मॉडल मेट्रिक को ट्रैक करने के लिए किया जाता है.

T

टेन्सर

#TensorFlow

TensorFlow प्रोग्राम में मुख्य डेटा स्ट्रक्चर. टेन्सर, N-डाइमेंशन वाले (जहां N बहुत बड़े हो सकते हैं) डेटा स्ट्रक्चर होते हैं. आम तौर पर, ये स्केलर, वेक्टर या मैट्रिक्स होते हैं. Tensor के एलिमेंट में पूर्णांक, फ़्लोटिंग-पॉइंट या स्ट्रिंग की वैल्यू हो सकती हैं.

TensorBoard

#TensorFlow

वह डैशबोर्ड जो एक या उससे ज़्यादा TensorFlow प्रोग्राम के चलने के दौरान सेव की गई खास जानकारी दिखाता है.

TensorFlow

#TensorFlow

बड़े पैमाने पर डिस्ट्रिब्यूट किया जा सकने वाला, मशीन लर्निंग का प्लैटफ़ॉर्म. इस शब्द का मतलब TensorFlow स्टैक में मौजूद बेस एपीआई लेयर से भी है, जो डेटाफ़्लो ग्राफ़ पर सामान्य कंप्यूटेशन की सुविधा देता है.

हालांकि, TensorFlow का इस्तेमाल मुख्य रूप से मशीन लर्निंग के लिए किया जाता है, लेकिन आप उन गैर-एमएल टास्क के लिए भी TensorFlow का इस्तेमाल कर सकते हैं जिनमें डेटाफ़्लो ग्राफ़ का इस्तेमाल करके संख्या वाली गणना की ज़रूरत होती है.

TensorFlow खेल का मैदान

#TensorFlow

ऐसा प्रोग्राम जो यह दिखाता है कि अलग-अलग हाइपर पैरामीटर, मॉडल (मुख्य तौर पर न्यूरल नेटवर्क) की ट्रेनिंग पर कैसे असर डालते हैं. TensorFlow Playground के साथ एक्सपेरिमेंट करने के लिए, http://playground.phonesorflow.org पर जाएं.

TensorFlow की सेवा

#TensorFlow

प्रोडक्शन में ट्रेनिंग वाले मॉडल डिप्लॉय करने के लिए प्लैटफ़ॉर्म.

टेन्सर प्रोसेसिंग यूनिट (TPU)

#TensorFlow
#GoogleCloud

ऐप्लिकेशन के हिसाब से बनाया गया इंटिग्रेटेड सर्किट (एएसआईसी), जो मशीन लर्निंग के वर्कलोड की परफ़ॉर्मेंस को ऑप्टिमाइज़ करता है. इन एएसआईसी को TPU डिवाइस पर कई TPU चिप के तौर पर डिप्लॉय किया जाता है.

टेन्सर की रैंक

#TensorFlow

रैंक (Tensor) देखें.

टेन्सर का आकार

#TensorFlow

अलग-अलग डाइमेंशन में टेन्सर में मौजूद एलिमेंट की संख्या. उदाहरण के लिए, [5, 10] Tensor का आकार एक डाइमेंशन में 5 और दूसरे डाइमेंशन में 10 है.

टेन्सर का साइज़

#TensorFlow

टेन्सर में मौजूद स्केलर की कुल संख्या. उदाहरण के लिए, [5, 10] Tensor का साइज़ 50 है.

tf.Example

#TensorFlow

मशीन लर्निंग मॉडल की ट्रेनिंग या अनुमान के लिए इनपुट डेटा की जानकारी देने के लिए, एक स्टैंडर्ड प्रोटोकॉल का बफ़र.

tf.keras

#TensorFlow

TensorFlow में इंटिग्रेट किए गए Keras को लागू करना.

TPU

#TensorFlow
#GoogleCloud

टेन्सर प्रोसेसिंग यूनिट का छोटा नाम.

TPU चिप

#TensorFlow
#GoogleCloud

प्रोग्राम करने लायक लीनियर ऐलजेब्रा ऐक्सेलरेटर, जिसमें ऑन-चिप ज़्यादा बैंडविड्थ वाली मेमोरी होती है. इसे मशीन लर्निंग के वर्कलोड के हिसाब से ऑप्टिमाइज़ किया जाता है. TPU डिवाइस पर कई TPU चिप डिप्लॉय किए जाते हैं.

TPU डिवाइस

#TensorFlow
#GoogleCloud

कई TPU चिप, हाई बैंडविड्थ नेटवर्क इंटरफ़ेस, और सिस्टम कूलिंग हार्डवेयर के साथ काम करने वाला प्रिंटेड सर्किट बोर्ड (पीसीबी).

TPU मास्टर

#TensorFlow
#GoogleCloud

सेंट्रल कोऑर्डिनेटिंग प्रोसेस, जो होस्ट मशीन पर चलती है. यह TPU वर्कर को डेटा, नतीजे, प्रोग्राम, परफ़ॉर्मेंस, और सिस्टम की हेल्थ की जानकारी भेजती और हासिल करती है. TPU मास्टर, TPU डिवाइसों के सेटअप और शटडाउन को भी मैनेज करता है.

TPU नोड

#TensorFlow
#GoogleCloud

Google Cloud पर खास TPU टाइप वाला TPU संसाधन. TPU नोड, किसी पीयर VPC नेटवर्क से आपके VPC नेटवर्क से कनेक्ट होता है. TPU नोड ऐसे संसाधन हैं जिनके बारे में Cloud TPU API में बताया गया है.

टीपीयू (TPU) पॉड

#TensorFlow
#GoogleCloud

Google डेटा सेंटर में TPU डिवाइसों का खास कॉन्फ़िगरेशन. TPU पॉड के सभी डिवाइस एक खास हाई-स्पीड नेटवर्क से जुड़े होते हैं. TPU पॉड, TPU डिवाइसों का सबसे बड़ा कॉन्फ़िगरेशन है. यह TPU के किसी खास वर्शन के लिए उपलब्ध होता है.

TPU संसाधन

#TensorFlow
#GoogleCloud

Google Cloud पर TPU की ऐसी इकाई जिसे बनाया जाता है, मैनेज किया जाता है या इस्तेमाल किया जाता है. उदाहरण के लिए, TPU नोड और TPU के टाइप TPU के संसाधन हैं.

TPU स्लाइस

#TensorFlow
#GoogleCloud

TPU स्लाइस, TPU पॉड में TPU डिवाइसों का फ़्रैक्शनल हिस्सा होता है. TPU स्लाइस में मौजूद सभी डिवाइस, खास हाई-स्पीड नेटवर्क की मदद से एक-दूसरे से कनेक्ट होते हैं.

TPU का टाइप

#TensorFlow
#GoogleCloud

TPU के किसी खास वर्शन वाले एक या एक से ज़्यादा TPU डिवाइसों का कॉन्फ़िगरेशन. Google Cloud पर TPU नोड बनाते समय आपको TPU का टाइप चुना जाता है. उदाहरण के लिए, v2-8 TPU टाइप, 8 कोर वाला एक TPU v2 डिवाइस होता है. v3-2048 TPU टाइप में 256 नेटवर्क वाले TPU v3 डिवाइस और कुल 2048 कोर होते हैं. TPU टाइप एक ऐसा संसाधन है जिसके बारे में Cloud TPU API में बताया गया है.

TPU वर्कर

#TensorFlow
#GoogleCloud

यह प्रोसेस, होस्ट मशीन पर चलती है और TPU डिवाइसों पर मशीन लर्निंग प्रोग्राम एक्ज़ीक्यूट करती है.