इस पेज पर, TensorFlow की ग्लॉसरी में शामिल शब्दों की जानकारी दी गई है. ग्लॉसरी में मौजूद सभी शब्दों के लिए, यहां क्लिक करें.
B
एक साथ कई अनुमान लगाना
बिना लेबल वाले कई उदाहरणों के आधार पर, अनुमान नतीजे निकालने की प्रोसेस. इन उदाहरणों को छोटे सबसेट ("बैच") में बांटा जाता है.
एक साथ कई अनुमान लगाने की सुविधा, ऐक्सेलरेटर चिप की पैरलल प्रोसेसिंग की सुविधाओं का फ़ायदा ले सकती है. इसका मतलब है कि एक से ज़्यादा ऐक्सेलरेटर, एक साथ लेबल न किए गए उदाहरणों के अलग-अलग बैच के आधार पर अनुमान लगा सकते हैं. इससे हर सेकंड में अनुमान लगाने की संख्या काफ़ी बढ़ जाती है.
ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में प्रोडक्शन एमएल सिस्टम: स्टैटिक बनाम डाइनैमिक अनुमानी देखें.
C
Cloud TPU
यह एक खास हार्डवेयर एक्सेलरेटर है, जिसे Google Cloud पर मशीन लर्निंग वर्कलोड को तेज़ करने के लिए डिज़ाइन किया गया है.
D
डेटासेट एपीआई (tf.data)
डेटा को पढ़ने और उसे मशीन लर्निंग एल्गोरिदम के लिए ज़रूरी फ़ॉर्मैट में बदलने के लिए, TensorFlow का एक हाई-लेवल एपीआई.
tf.data.Dataset
ऑब्जेक्ट, एलिमेंट के क्रम को दिखाता है. इसमें हर एलिमेंट में एक या एक से ज़्यादा टेंसर होते हैं. tf.data.Iterator
ऑब्जेक्ट, Dataset
के एलिमेंट का ऐक्सेस देता है.
डिवाइस
ओवरलोड किया गया शब्द, जिसकी ये दो संभावित परिभाषाएं हैं:
- हार्डवेयर की एक कैटगरी, जिसमें सीपीयू, जीपीयू, और TPU शामिल हैं. ये हार्डवेयर, TensorFlow सेशन चला सकते हैं.
- ऐक्सेलरेटर चिप (GPU या TPU) पर किसी एमएल मॉडल को ट्रेनिंग देते समय, सिस्टम का वह हिस्सा जो असल में टेंसर और एम्बेड में बदलाव करता है. यह डिवाइस, ऐक्सेलरेटर चिप पर काम करता है. इसके उलट, होस्ट आम तौर पर सीपीयू पर चलता है.
E
ईगर एक्ज़ीक्यूशन
TensorFlow प्रोग्रामिंग एनवायरमेंट, जिसमें ऑपरेशन तुरंत चलते हैं. इसके उलट, ग्राफ़ को लागू करने के दौरान, ऑपरेशन तब तक नहीं चलते, जब तक उनका साफ़ तौर पर आकलन नहीं किया जाता. ईगर एक्ज़ीक्यूशन, इंपरिएटिव इंटरफ़ेस है. यह ज़्यादातर प्रोग्रामिंग भाषाओं के कोड की तरह ही होता है. आम तौर पर, ग्राफ़ एक्ज़ीक्यूशन प्रोग्राम की तुलना में, ईगर एक्ज़ीक्यूशन प्रोग्राम को डीबग करना काफ़ी आसान होता है.
Estimator
TensorFlow का एक ऐसा एपीआई जिसका इस्तेमाल नहीं किया जा सकता. एस्टिमेटर्स के बजाय, tf.keras का इस्तेमाल करें.
F
फ़ीचर इंजीनियरिंग
यह एक ऐसी प्रोसेस है जिसमें ये चरण शामिल होते हैं:
- यह तय करना कि मॉडल को ट्रेनिंग देने के लिए, किन सुविधाओं का इस्तेमाल किया जा सकता है.
- डेटासेट के रॉ डेटा को उन सुविधाओं के बेहतर वर्शन में बदलना.
उदाहरण के लिए, आपके हिसाब से temperature
एक काम की सुविधा हो सकती है. इसके बाद, बकेट के साथ एक्सपेरिमेंट किया जा सकता है, ताकि यह ऑप्टिमाइज़ किया जा सके कि मॉडल अलग-अलग temperature
रेंज से क्या सीख सकता है.
फ़ीचर इंजीनियरिंग को कभी-कभी फ़ीचर एक्सट्रैक्शन या फ़ीचराइज़ेशन भी कहा जाता है.
ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में न्यूमेरिकल डेटा: कोई मॉडल, फ़ीचर वैक्टर का इस्तेमाल करके डेटा को कैसे डालता है देखें.
सुविधा की खास बातें
tf.Example प्रोटोकॉल बफ़र से features डेटा निकालने के लिए ज़रूरी जानकारी के बारे में बताता है. क्वेरी के लिए इस्तेमाल किया गया प्रोटोकॉल बफ़र, डेटा का सिर्फ़ एक कंटेनर होता है.इसलिए, आपको इन चीज़ों की जानकारी देनी होगी:
- वह डेटा जिसे एक्सट्रैक्ट करना है (यानी, सुविधाओं के लिए कुंजियां)
- डेटा टाइप (उदाहरण के लिए, फ़्लोट या int)
- लंबाई (तय या बदलाव की जा सकने वाली)
G
ग्राफ़
TensorFlow में, कैलकुलेशन की खास बातें. ग्राफ़ में मौजूद नोड, ऑपरेशन दिखाते हैं. एज डायरेक्ट किए जाते हैं और किसी ऑपरेशन (Tensor) के नतीजे को ऑपरेंड के तौर पर किसी दूसरे ऑपरेशन में पास करने के बारे में बताते हैं. ग्राफ़ को विज़ुअलाइज़ करने के लिए, TensorBoard का इस्तेमाल करें.
ग्राफ़ चलाना
TensorFlow प्रोग्रामिंग एनवायरमेंट, जिसमें प्रोग्राम पहले एक ग्राफ़ बनाता है और फिर उस ग्राफ़ के पूरे या कुछ हिस्से को लागू करता है. ग्राफ़ को लागू करने का तरीका, TensorFlow 1.x में डिफ़ॉल्ट तौर पर लागू होने का तरीका है.
तय समय से पहले ट्रिगर होने की तुलना में.
H
होस्ट
ऐक्सेलरेटर चिप (जीपीयू या TPU) पर एमएल मॉडल को ट्रेनिंग देते समय, सिस्टम का वह हिस्सा इन दोनों को कंट्रोल करता है:
- कोड का पूरा फ़्लो.
- इनपुट पाइपलाइन को निकालना और उसमें बदलाव करना.
आम तौर पर, होस्ट ऐक्सेलरेटर चिप पर नहीं, बल्कि सीपीयू पर चलता है. डिवाइस, ऐक्सेलरेटर चिप पर टेंसर में बदलाव करता है.
L
Layers API (tf.layers)
लेयर के कॉम्पोज़िशन के तौर पर, डीप न्यूरल नेटवर्क बनाने के लिए TensorFlow एपीआई. Layers API की मदद से, अलग-अलग तरह की लेयर बनाई जा सकती हैं. जैसे:
- पूरी तरह से कनेक्ट की गई लेयर के लिए
tf.layers.Dense
. tf.layers.Conv2D
, कन्वोल्यूशनल लेयर के लिए.
Layers API, Keras लेयर एपीआई के नियमों का पालन करता है. इसका मतलब है कि अलग प्रीफ़िक्स के अलावा, Layers API के सभी फ़ंक्शन के नाम और हस्ताक्षर, Keras layers API के उन फ़ंक्शन के नाम और हस्ताक्षर जैसे ही होते हैं.
M
मेश
एमएल पैरलल प्रोग्रामिंग में, यह TPU चिप को डेटा और मॉडल असाइन करने से जुड़ा एक शब्द है. साथ ही, यह तय करने से जुड़ा है कि इन वैल्यू को कैसे शेयर किया जाएगा या डुप्लीकेट किया जाएगा.
मेश एक ऐसा शब्द है जिसका इस्तेमाल कई कामों के लिए किया जाता है. इसका मतलब इनमें से कोई एक हो सकता है:
- TPU चिप का फ़िज़िकल लेआउट.
- डेटा और मॉडल को TPU चिप पर मैप करने के लिए, एक ऐब्स्ट्रैक्ट लॉजिकल कंस्ट्रक्ट.
दोनों ही मामलों में, मेश को आकार के तौर पर दिखाया जाता है.
मीट्रिक
ऐसा आंकड़ा जिसमें आपकी दिलचस्पी है.
मकसद एक ऐसी मेट्रिक है जिसे मशीन लर्निंग सिस्टम ऑप्टिमाइज़ करने की कोशिश करता है.
नहीं
नोड (TensorFlow ग्राफ़)
TensorFlow ग्राफ़ में कोई ऑपरेशन.
O
ऑपरेशन (op)
TensorFlow में, Tensor बनाने, उसमें बदलाव करने या उसे मिटाने वाली कोई भी प्रोसेस. उदाहरण के लिए, मैट्रिक्स का गुणा करने की कार्रवाई में दो टेंसर इनपुट के तौर पर इस्तेमाल किए जाते हैं और एक टेंसर आउटपुट के तौर पर जनरेट होता है.
P
पैरामीटर सर्वर (पीएस)
एक ऐसा जॉब जो डिस्ट्रिब्यूट की गई सेटिंग में, मॉडल के पैरामीटर को ट्रैक करता है.
Q
सूची
TensorFlow का एक ऑपरेशन, जो कतार के डेटा स्ट्रक्चर को लागू करता है. आम तौर पर, इसका इस्तेमाल I/O में किया जाता है.
R
rank (Tensor)
Tensor में डाइमेंशन की संख्या. उदाहरण के लिए, स्केलर की रैंक 0 होती है, वेक्टर की रैंक 1 होती है, और मैट्रिक की रैंक 2 होती है.
इसे रैंक (क्रम) से न जोड़ें.
रूट डायरेक्ट्री
यह वह डायरेक्ट्री होती है जिसे आपने TensorFlow के चेकपॉइंट की सब-डायरेक्ट्री और एक से ज़्यादा मॉडल की इवेंट फ़ाइलों को होस्ट करने के लिए तय किया है.
S
सेव मॉडल
TensorFlow मॉडल को सेव और वापस लाने के लिए सुझाया गया फ़ॉर्मैट. SavedModel, भाषा के हिसाब से काम करने वाला और रिकवर किया जा सकने वाला सीरियलाइज़ेशन फ़ॉर्मैट है. इससे, बेहतर लेवल के सिस्टम और टूल, TensorFlow मॉडल बना सकते हैं, उनका इस्तेमाल कर सकते हैं, और उन्हें बदल सकते हैं.
पूरी जानकारी के लिए, TensorFlow प्रोग्रामर गाइड का सेव और वापस लाने वाला सेक्शन देखें.
सेवर
मॉडल के चेकपॉइंट सेव करने के लिए ज़िम्मेदार TensorFlow ऑब्जेक्ट.
शर्ड
ट्रेनिंग सेट या मॉडल का लॉजिकल डिवीज़न. आम तौर पर, कुछ प्रोसेस उदाहरणों या पैरामीटर को बराबर साइज़ के हिस्सों में बांटकर, शर्ड बनाती हैं. इसके बाद, हर शर्ड को किसी अलग मशीन को असाइन किया जाता है.
मॉडल को अलग-अलग हिस्सों में बांटने को मॉडल पैरलेलिज्म कहा जाता है; डेटा को अलग-अलग हिस्सों में बांटने को डेटा पैरलेलिज्म कहा जाता है.
सारांश
TensorFlow में, किसी खास चरण में कैलकुलेट की गई वैल्यू या वैल्यू का सेट. आम तौर पर, इसका इस्तेमाल ट्रेनिंग के दौरान मॉडल की मेट्रिक को ट्रैक करने के लिए किया जाता है.
T
Tensor
TensorFlow प्रोग्राम में मुख्य डेटा स्ट्रक्चर. टेंसर, N-डाइमेंशनल (जहां N बहुत बड़ा हो सकता है) डेटा स्ट्रक्चर होते हैं. आम तौर पर, ये स्केलर, वैक्टर या मैट्रिक्स होते हैं. टेंसर के एलिमेंट में, पूर्णांक, फ़्लोटिंग-पॉइंट या स्ट्रिंग वैल्यू हो सकती हैं.
TensorBoard
एक या एक से ज़्यादा TensorFlow प्रोग्राम चलाने के दौरान सेव की गई खास जानकारी दिखाने वाला डैशबोर्ड.
TensorFlow
बड़े पैमाने पर उपलब्ध, डिस्ट्रिब्यूट किया गया मशीन लर्निंग प्लैटफ़ॉर्म. यह शब्द, TensorFlow स्टैक में मौजूद एपीआई की बुनियादी लेयर को भी दिखाता है. यह लेयर, डेटाफ़्लो ग्राफ़ पर सामान्य कैलकुलेशन की सुविधा देती है.
TensorFlow का इस्तेमाल मुख्य रूप से मशीन लर्निंग के लिए किया जाता है. हालांकि, TensorFlow का इस्तेमाल उन गैर-मशीन लर्निंग टास्क के लिए भी किया जा सकता है जिनमें डेटाफ़्लो ग्राफ़ का इस्तेमाल करके संख्यात्मक गणना की ज़रूरत होती है.
TensorFlow Playground
यह एक ऐसा प्रोग्राम है जो विज़ुअलाइज़ करता है कि अलग-अलग हाइपरपैरामीटर, मॉडल (मुख्य रूप से न्यूरल नेटवर्क) की ट्रेनिंग पर कैसे असर डालते हैं. TensorFlow Playground को आज़माने के लिए, http://playground.tensorflow.org पर जाएं.
TensorFlow Serving
ट्रेन किए गए मॉडल को प्रोडक्शन में डिप्लॉय करने के लिए प्लैटफ़ॉर्म.
टेंसर प्रोसेसिंग यूनिट (TPU)
ऐप्लिकेशन के हिसाब से बनाया गया इंटिग्रेटेड सर्किट (एएसआईसी), जो मशीन लर्निंग वर्कलोड की परफ़ॉर्मेंस को ऑप्टिमाइज़ करता है. इन एएसआईसी को TPU डिवाइस पर, कई TPU चिप के तौर पर डिप्लॉय किया जाता है.
टेंसर रैंक
रैंक (टेंसर) देखें.
टेंसर का आकार
अलग-अलग डाइमेंशन में, Tensor में मौजूद एलिमेंट की संख्या.
उदाहरण के लिए, किसी [5, 10]
टेंसर का एक डाइमेंशन 5 और दूसरा डाइमेंशन 10 वाला हो सकता है.
टेंसर का साइज़
Tensor में स्केलर की कुल संख्या. उदाहरण के लिए, किसी
[5, 10]
टेंसर का साइज़ 50 है.
tf.Example
मशीन लर्निंग मॉडल को ट्रेनिंग देने या अनुमान लगाने के लिए, इनपुट डेटा की जानकारी देने वाला स्टैंडर्ड प्रोटोकॉल बफ़र.
tf.keras
Keras को TensorFlow के साथ इंटिग्रेट किया गया है.
टीपीयू (TPU)
टेंसर प्रोसेसिंग यूनिट का छोटा नाम.
TPU चिप
प्रोग्राम किया जा सकने वाला लीनियर ऐल्जेब्रा एक्सेलरेटर, जिसमें चिप पर हाई बैंडविथ वाली मेमोरी होती है. इसे मशीन लर्निंग के ज़्यादा काम के लिए ऑप्टिमाइज़ किया गया है. TPU डिवाइस पर कई TPU चिप डिप्लॉय किए जाते हैं.
TPU डिवाइस
एक प्रिंटेड सर्किट बोर्ड (पीसीबी), जिसमें कई TPU चिप, ज़्यादा बैंडविड्थ वाले नेटवर्क इंटरफ़ेस, और सिस्टम कूलिंग हार्डवेयर होते हैं.
TPU मास्टर
होस्ट मशीन पर चलने वाली मुख्य कोऑर्डिनेशन प्रोसेस, जो TPU वर्कर्स को डेटा, नतीजे, प्रोग्राम, परफ़ॉर्मेंस, और सिस्टम की परफ़ॉर्मेंस की जानकारी भेजती है और उनसे जानकारी पाती है. TPU मास्टर, TPU डिवाइसों के सेटअप और बंद होने को भी मैनेज करता है.
TPU नोड
Google Cloud पर मौजूद ऐसा TPU रिसॉर्स जिसमें कोई खास TPU टाइप हो. TPU नोड, पियर वीपीसी नेटवर्क से आपके वीपीसी नेटवर्क से कनेक्ट होता है. TPU नोड, Cloud TPU API में बताए गए संसाधन हैं.
टीपीयू (TPU) पॉड
Google के डेटा सेंटर में, TPU डिवाइसों का कोई खास कॉन्फ़िगरेशन. TPU पॉड में मौजूद सभी डिवाइस, एक खास ज़्यादा स्पीड वाले नेटवर्क से एक-दूसरे से कनेक्ट होते हैं. TPU पॉड, किसी खास TPU वर्शन के लिए उपलब्ध TPU डिवाइसों का सबसे बड़ा कॉन्फ़िगरेशन होता है.
TPU रिसॉर्स
Google Cloud पर मौजूद TPU इकाई, जिसे आपने बनाया है, मैनेज किया है या इस्तेमाल किया है. उदाहरण के लिए, TPU नोड और TPU टाइप, TPU संसाधन हैं.
TPU स्लाइस
TPU स्लाइस, TPU पॉड में मौजूद TPU डिवाइसों का एक छोटा हिस्सा होता है. TPU स्लाइस में मौजूद सभी डिवाइस, एक खास ज़्यादा स्पीड वाले नेटवर्क से एक-दूसरे से कनेक्ट होते हैं.
TPU का टाइप
किसी खास TPU हार्डवेयर वर्शन के साथ, एक या एक से ज़्यादा TPU डिवाइसों का कॉन्फ़िगरेशन. Google Cloud पर TPU नोड बनाते समय, TPU का टाइप चुना जाता है. उदाहरण के लिए, v2-8
TPU टाइप, आठ कोर वाला एक TPU v2 डिवाइस है. v3-2048
टाइप के TPU में, 256 कनेक्ट किए गए TPU v3 डिवाइस और कुल 2,048 कोर होते हैं. TPU टाइप, Cloud TPU API में बताए गए संसाधन हैं.
TPU वर्कर
यह एक प्रोसेस है, जो होस्ट मशीन पर चलती है और TPU डिवाइसों पर मशीन लर्निंग प्रोग्राम को लागू करती है.