इस पेज में TensorFlow की ग्लॉसरी शब्द मौजूद हैं. शब्दावली के सभी शब्दों के लिए, यहां क्लिक करें.
B
बैच अनुमान
ऐसे कई लेबल नहीं किए गए उदाहरणों पर सुझावों को लागू करने की प्रोसेस जो छोटे-छोटे सबसेट ("बैच") में बंटे होते हैं.
बैच अनुमान, ऐक्सेलरेटर चिप की एक साथ काम करने वाली सुविधाओं का फ़ायदा ले सकता है. इसका मतलब है कि एक से ज़्यादा ऐक्सेलरेटर, बिना लेबल वाले उदाहरणों के अलग-अलग बैच के लिए एक साथ अनुमान लगा सकते हैं. इससे हर सेकंड में अनुमानों की संख्या बढ़ जाती है.
C
Cloud TPU
यह एक खास हार्डवेयर ऐक्सेलरेटर है. इसे Google Cloud पर मशीन लर्निंग के वर्कलोड को तेज़ी से लोड करने के लिए डिज़ाइन किया गया है.
D
डेटासेट एपीआई (tf.data)
यह हाई-लेवल TensorFlow एपीआई है. यह डेटा पढ़ने और उसे ऐसे फ़ॉर्म में बदलने के लिए है जो मशीन लर्निंग एल्गोरिदम के लिए ज़रूरी है.
tf.data.Dataset
ऑब्जेक्ट, एलिमेंट का क्रम दिखाता है. इसमें हर एलिमेंट में एक या उससे ज़्यादा टेन्सर होते हैं. tf.data.Iterator
ऑब्जेक्ट, Dataset
के एलिमेंट का ऐक्सेस देता है.
डेटासेट एपीआई के बारे में ज़्यादा जानकारी के लिए, TensorFlow प्रोग्रामर की गाइड में दिया गया tf.data: Build TensorFlow इनपुट पाइपलाइन देखें.
डिवाइस
ओवरलोड हुए शब्द, जिसकी ये दो संभावित परिभाषाएं हैं:
- हार्डवेयर की ऐसी कैटगरी जो TensorFlow सेशन चला सकती है. इसमें सीपीयू, जीपीयू, और TPU शामिल हैं.
- ऐक्सेलरेटर चिप पर एमएल मॉडल को ट्रेनिंग देते समय, सिस्टम का वह हिस्सा होता है जो टेन्सर और एम्बेड करने में हेर-फेर करता है. डिवाइस, ऐक्सेलरेटर चिप पर काम करता है. वहीं दूसरी ओर, होस्ट आम तौर पर सीपीयू पर चलता है.
E
ईगर एक्ज़ीक्यूशन
TensorFlow प्रोग्रामिंग का ऐसा प्लैटफ़ॉर्म जिसमें operations तुरंत चलते हैं. वहीं दूसरी ओर, ग्राफ़ लागू करने में बताई गई कार्रवाइयां तब तक नहीं चलती हैं, जब तक उनका साफ़ तौर पर आकलन नहीं किया जाता. एक्ज़ीक्यूशन एक ज़रूरी इंटरफ़ेस है. यह बहुत कुछ प्रोग्रामिंग भाषाओं के कोड की तरह है. आम तौर पर, तेज़ी से काम करने वाले प्रोग्राम को ग्राफ़ पर एक्ज़ीक्यूशन प्रोग्राम के मुकाबले डीबग करना ज़्यादा आसान होता है.
अनुमान
TensorFlow एपीआई अब काम नहीं करता. अनुमान के बजाय, tf.keras का इस्तेमाल करें.
म॰
फ़ीचर इंजीनियरिंग
ऐसी प्रोसेस जिसमें ये चरण शामिल होते हैं:
- यह तय करना कि किसी मॉडल की ट्रेनिंग के लिए कौनसी सुविधाएं काम की हो सकती हैं.
- डेटासेट से रॉ डेटा को उन सुविधाओं के बेहतर वर्शन में बदलना.
उदाहरण के लिए, आपको यह तय करना पड़ सकता है कि temperature
काम की सुविधा हो सकती है. इसके बाद, बकेटिंग का इस्तेमाल करके एक्सपेरिमेंट किया जा सकता है, ताकि यह ऑप्टिमाइज़ किया जा सके कि मॉडल, अलग-अलग temperature
रेंज से क्या सीख सकता है.
फ़ीचर इंजीनियरिंग को कभी-कभी सुविधा से हटाना या फ़ेचुरेशन कहा जाता है.
सुविधा की खास बातें
यह tf.Example प्रोटोकॉल बफ़र से, सुविधाओं का डेटा एक्सट्रैक्ट करने के लिए ज़रूरी जानकारी देता है. ऐसा इसलिए, क्योंकि tf.Example प्रोटोकॉल बफ़र, सिर्फ़ डेटा के लिए एक कंटेनर है. इसलिए, आपको यह जानकारी देनी होगी:
- एक्सट्रैक्ट किया जाने वाला डेटा (यानी, सुविधाओं की कुंजियां)
- डेटा टाइप (उदाहरण के लिए, फ़्लोट या int)
- लंबाई (तय या अलग-अलग)
G
ग्राफ़
TensorFlow में, एक कैलकुलेशन स्पेसिफ़िकेशन. ग्राफ़ में मौजूद नोड, ऑपरेशन को दिखाते हैं. किनारे डायरेक्ट किए जाते हैं और इनसे पता चलता है कि किसी कार्रवाई के नतीजे (टेन्सर) को किसी दूसरे ऑपरेशन के तौर पर पास किया जा रहा है. ग्राफ़ को विज़ुअलाइज़ करने के लिए, TensorBoard का इस्तेमाल करें.
ग्राफ़ बनाना
TensorFlow का एक प्रोग्रामिंग एनवायरमेंट है, जिसमें प्रोग्राम सबसे पहले ग्राफ़ बनाता है और फिर उस ग्राफ़ के पूरे या कुछ हिस्से को एक्ज़ीक्यूट करता है. TensorFlow 1.x में, ग्राफ़ चलाना डिफ़ॉल्ट रूप से एक्ज़ीक्यूशन मोड है.
एक्ज़ीक्यूशन के साथ कंट्रास्ट करें.
H
होस्ट
ऐक्सेलरेटर चिप पर एमएल मॉडल को ट्रेनिंग देते समय (जीपीयू या टीपीयू), सिस्टम का वह हिस्सा होता है जो इन दोनों को कंट्रोल करता है:
- कोड का पूरा फ़्लो.
- इनपुट पाइपलाइन को निकालना और बदलना.
आम तौर पर, होस्ट सीपीयू पर काम करता है, न कि ऐक्सेलरेटर चिप पर. डिवाइस, एक्सीलेरेटर चिप पर टेंसर में बदलाव करता है.
L
लेयर एपीआई (tf.layers)
लेयर के कंपोज़िशन के तौर पर डीप न्यूरल नेटवर्क बनाने के लिए, TensorFlow एपीआई. लेयर एपीआई की मदद से, अलग-अलग तरह की लेयर बनाई जा सकती हैं, जैसे:
- पूरी तरह से कनेक्ट की गई लेयर के लिए
tf.layers.Dense
. - कॉन्वलूशनल लेयर के लिए
tf.layers.Conv2D
.
लेयर एपीआई, Keras लेयर के लिए एपीआई से जुड़े नियमों का पालन करता है. इसका मतलब है कि एक अलग प्रीफ़िक्स के अलावा, लेयर एपीआई के सभी फ़ंक्शन के नाम और हस्ताक्षर, Keras लेयर एपीआई में मौजूद मिलते-जुलते फ़ंक्शन के नाम और सिग्नेचर के समान होते हैं.
सोम
मेश
एमएल पैरलल प्रोग्रामिंग में, एक ऐसा शब्द होता है जो TPU चिप को डेटा और मॉडल असाइन करने से जुड़ा होता है. साथ ही, यह तय करता है कि इन वैल्यू को शार्ड करने या उनकी कॉपी कैसे बनाई जाएगी.
मेश बहुत ज़्यादा लोड होने वाला शब्द है जिसका मतलब इनमें से कोई एक हो सकता है:
- TPU चिप का फ़िज़िकल लेआउट.
- यह डेटा और मॉडल को TPU चिप के साथ मैप करने के लिए बनाया गया ऐब्सट्रैक्ट लॉजिकल कंस्ट्रक्शन है.
दोनों ही मामलों में, मेश को आकार के तौर पर बताया जाता है.
मीट्रिक
वह आंकड़ा, जो आपके लिए अहम है.
मकसद एक ऐसी मेट्रिक है जिसे मशीन लर्निंग सिस्टम ऑप्टिमाइज़ करने की कोशिश करता है.
नहीं
नोड (TensorFlow ग्राफ़)
TensorFlow के ग्राफ़ में एक कार्रवाई.
O
संचालन (ऑप)
TensorFlow में, ऐसी कोई भी प्रोसेस जो Tensor बनाती है, उसमें बदलाव करती है या उसे नष्ट कर देती है. जैसे, मैट्रिक्स गुणा एक ऐसी कार्रवाई है जिसमें दो Tensor को इनपुट के तौर पर लिया जाता है और आउटपुट के तौर पर एक Tensor जनरेट किया जाता है.
P
पैरामीटर सर्वर (PS)
ऐसा जॉब जो डिस्ट्रिब्यूटेड सेटिंग में मॉडल के पैरामीटर को ट्रैक करता है.
सवाल
सूची
TensorFlow ऑपरेशन, जो सूची का डेटा स्ट्रक्चर लागू करता है. आम तौर पर, I/O में इस्तेमाल किया जाता है.
R
रैंक (टेन्सर)
टेन्सर में डाइमेंशन की संख्या. उदाहरण के लिए, अदिश की रैंक 0 है, वेक्टर की रैंक 1 है, और आव्यूह की रैंक 2 है.
इसे रैंक (ऑर्डर की संख्या) समझने की भूल न करें.
रूट डायरेक्ट्री
आपकी तय की गई डायरेक्ट्री, जिसमें TensorFlow की सबडायरेक्ट्री और कई मॉडल की इवेंट फ़ाइलें होस्ट की जाती हैं.
S
SavedModel
TensorFlow के मॉडल सेव करने और वापस लाने के लिए सुझाया गया फ़ॉर्मैट. सेव मॉडल एक लैंग्वेज न्यूट्रल और रिकवर किया जा सकने वाला सीरियलाइज़ेशन फ़ॉर्मैट है. इसकी मदद से, ऊंचे लेवल के सिस्टम और टूल को TensorFlow के मॉडल बनाने, इस्तेमाल करने, और उनमें बदलाव करने की सुविधा मिलती है.
पूरी जानकारी के लिए, TensorFlow प्रोग्रामर की गाइड में, सेव करने और वापस लाने का चैप्टर देखें.
सेवर
TensorFlow ऑब्जेक्ट मॉडल चेकपॉइंट को सेव करने के लिए काम करता है.
शार्ड
ट्रेनिंग सेट या मॉडल का लॉजिकल डिवीज़न. आम तौर पर, कुछ प्रोसेस उदाहरण या पैरामीटर को (आम तौर पर) एक जैसे साइज़ के हिस्सों में बांटकर शार्ड बनाती हैं. इसके बाद, हर शार्ड किसी दूसरी मशीन को असाइन किया जाता है.
मॉडल को शार्डिंग करने को मॉडल पैरललिज़्म कहा जाता है; हार्डिंग डेटा को डेटा पैरललिज़्म कहा जाता है.
खास जानकारी
TensorFlow में, किसी खास चरण के हिसाब से तय की गई वैल्यू या वैल्यू का सेट. आम तौर पर इसका इस्तेमाल ट्रेनिंग के दौरान मॉडल मेट्रिक को ट्रैक करने के लिए किया जाता है.
T
टेन्सर
TensorFlow प्रोग्राम में मुख्य डेटा स्ट्रक्चर. टेन्सर, N-डाइमेंशन वाले (जहां N बहुत बड़े हो सकते हैं) डेटा स्ट्रक्चर होते हैं. आम तौर पर, ये स्केलर, वेक्टर या मैट्रिक्स होते हैं. Tensor के एलिमेंट में पूर्णांक, फ़्लोटिंग-पॉइंट या स्ट्रिंग की वैल्यू हो सकती हैं.
TensorBoard
वह डैशबोर्ड जो एक या उससे ज़्यादा TensorFlow प्रोग्राम के चलने के दौरान सेव की गई खास जानकारी दिखाता है.
TensorFlow
बड़े पैमाने पर डिस्ट्रिब्यूट किया जा सकने वाला, मशीन लर्निंग का प्लैटफ़ॉर्म. इस शब्द का मतलब TensorFlow स्टैक में मौजूद बेस एपीआई लेयर से भी है, जो डेटाफ़्लो ग्राफ़ पर सामान्य कंप्यूटेशन की सुविधा देता है.
हालांकि, TensorFlow का इस्तेमाल मुख्य रूप से मशीन लर्निंग के लिए किया जाता है, लेकिन आप उन गैर-एमएल टास्क के लिए भी TensorFlow का इस्तेमाल कर सकते हैं जिनमें डेटाफ़्लो ग्राफ़ का इस्तेमाल करके संख्या वाली गणना की ज़रूरत होती है.
TensorFlow खेल का मैदान
ऐसा प्रोग्राम जो यह दिखाता है कि अलग-अलग हाइपर पैरामीटर, मॉडल (मुख्य तौर पर न्यूरल नेटवर्क) की ट्रेनिंग पर कैसे असर डालते हैं. TensorFlow Playground के साथ एक्सपेरिमेंट करने के लिए, http://playground.phonesorflow.org पर जाएं.
TensorFlow की सेवा
प्रोडक्शन में ट्रेनिंग वाले मॉडल डिप्लॉय करने के लिए प्लैटफ़ॉर्म.
टेन्सर प्रोसेसिंग यूनिट (TPU)
ऐप्लिकेशन के हिसाब से बनाया गया इंटिग्रेटेड सर्किट (एएसआईसी), जो मशीन लर्निंग के वर्कलोड की परफ़ॉर्मेंस को ऑप्टिमाइज़ करता है. इन एएसआईसी को TPU डिवाइस पर कई TPU चिप के तौर पर डिप्लॉय किया जाता है.
टेन्सर की रैंक
रैंक (Tensor) देखें.
टेन्सर का आकार
अलग-अलग डाइमेंशन में टेन्सर में मौजूद एलिमेंट की संख्या.
उदाहरण के लिए, [5, 10]
Tensor का आकार एक डाइमेंशन में 5 और दूसरे डाइमेंशन में 10 है.
टेन्सर का साइज़
टेन्सर में मौजूद स्केलर की कुल संख्या. उदाहरण के लिए, [5, 10]
Tensor का साइज़ 50 है.
tf.Example
मशीन लर्निंग मॉडल की ट्रेनिंग या अनुमान के लिए इनपुट डेटा की जानकारी देने के लिए, एक स्टैंडर्ड प्रोटोकॉल का बफ़र.
tf.keras
TensorFlow में इंटिग्रेट किए गए Keras को लागू करना.
TPU
टेन्सर प्रोसेसिंग यूनिट का छोटा नाम.
TPU चिप
प्रोग्राम करने लायक लीनियर ऐलजेब्रा ऐक्सेलरेटर, जिसमें ऑन-चिप ज़्यादा बैंडविड्थ वाली मेमोरी होती है. इसे मशीन लर्निंग के वर्कलोड के हिसाब से ऑप्टिमाइज़ किया जाता है. TPU डिवाइस पर कई TPU चिप डिप्लॉय किए जाते हैं.
TPU डिवाइस
कई TPU चिप, हाई बैंडविड्थ नेटवर्क इंटरफ़ेस, और सिस्टम कूलिंग हार्डवेयर के साथ काम करने वाला प्रिंटेड सर्किट बोर्ड (पीसीबी).
TPU मास्टर
सेंट्रल कोऑर्डिनेटिंग प्रोसेस, जो होस्ट मशीन पर चलती है. यह TPU वर्कर को डेटा, नतीजे, प्रोग्राम, परफ़ॉर्मेंस, और सिस्टम की हेल्थ की जानकारी भेजती और हासिल करती है. TPU मास्टर, TPU डिवाइसों के सेटअप और शटडाउन को भी मैनेज करता है.
TPU नोड
Google Cloud पर खास TPU टाइप वाला TPU संसाधन. TPU नोड, किसी पीयर VPC नेटवर्क से आपके VPC नेटवर्क से कनेक्ट होता है. TPU नोड ऐसे संसाधन हैं जिनके बारे में Cloud TPU API में बताया गया है.
टीपीयू (TPU) पॉड
Google डेटा सेंटर में TPU डिवाइसों का खास कॉन्फ़िगरेशन. TPU पॉड के सभी डिवाइस एक खास हाई-स्पीड नेटवर्क से जुड़े होते हैं. TPU पॉड, TPU डिवाइसों का सबसे बड़ा कॉन्फ़िगरेशन है. यह TPU के किसी खास वर्शन के लिए उपलब्ध होता है.
TPU संसाधन
Google Cloud पर TPU की ऐसी इकाई जिसे बनाया जाता है, मैनेज किया जाता है या इस्तेमाल किया जाता है. उदाहरण के लिए, TPU नोड और TPU के टाइप TPU के संसाधन हैं.
TPU स्लाइस
TPU स्लाइस, TPU पॉड में TPU डिवाइसों का फ़्रैक्शनल हिस्सा होता है. TPU स्लाइस में मौजूद सभी डिवाइस, खास हाई-स्पीड नेटवर्क की मदद से एक-दूसरे से कनेक्ट होते हैं.
TPU का टाइप
TPU के किसी खास वर्शन वाले एक या एक से ज़्यादा TPU डिवाइसों का कॉन्फ़िगरेशन. Google Cloud पर TPU नोड बनाते समय आपको TPU का टाइप चुना जाता है. उदाहरण के लिए, v2-8
TPU टाइप, 8 कोर वाला एक TPU v2 डिवाइस होता है. v3-2048
TPU टाइप में 256
नेटवर्क वाले TPU v3 डिवाइस और कुल 2048 कोर होते हैं. TPU टाइप एक ऐसा संसाधन है जिसके बारे में Cloud TPU API में बताया गया है.
TPU वर्कर
यह प्रोसेस, होस्ट मशीन पर चलती है और TPU डिवाइसों पर मशीन लर्निंग प्रोग्राम एक्ज़ीक्यूट करती है.