इस पेज पर, TensorFlow की शब्दावली के शब्द दिए गए हैं. सभी शब्दावली के लिए, यहां क्लिक करें.
C
Cloud TPU
यह एक खास हार्डवेयर एक्सेलरेटर है. इसे Google Cloud पर मशीन लर्निंग के वर्कलोड को तेज़ करने के लिए डिज़ाइन किया गया है.
D
Dataset API (tf.data)
डेटा को पढ़ने और उसे ऐसे फ़ॉर्म में बदलने के लिए, TensorFlow का हाई-लेवल एपीआई जिसकी ज़रूरत मशीन लर्निंग एल्गोरिदम को होती है.
tf.data.Dataset
ऑब्जेक्ट, एलिमेंट के क्रम को दिखाता है. इसमें हर एलिमेंट में एक या उससे ज़्यादा टेंसर होते हैं. tf.data.Iterator
ऑब्जेक्ट, Dataset
के एलिमेंट का ऐक्सेस देता है.
डिवाइस
एक ऐसा शब्द जिसके कई मतलब होते हैं. इसके दो मतलब हो सकते हैं:
- यह हार्डवेयर की एक कैटगरी है, जो TensorFlow सेशन चला सकती है. इसमें सीपीयू, जीपीयू, और TPU शामिल हैं.
- ऐक्सलरेटर चिप (GPU या TPU) पर एमएल मॉडल को ट्रेन करते समय, सिस्टम का वह हिस्सा जो टेंसर और एम्बेडिंग को मैनेज करता है. डिवाइस, ऐक्सलरेटर चिप पर काम करता है. इसके उलट, होस्ट आम तौर पर सीपीयू पर चलता है.
E
ईगर एक्ज़ीक्यूशन
यह TensorFlow का प्रोग्रामिंग एनवायरमेंट है, जिसमें ऑपरेशन तुरंत पूरे होते हैं. इसके उलट, ग्राफ़ एक्ज़ीक्यूशन में कॉल किए गए ऑपरेशन तब तक नहीं चलते, जब तक उनका साफ़ तौर पर आकलन नहीं किया जाता. Eager execution, इंपरेटिव इंटरफ़ेस है. यह ज़्यादातर प्रोग्रामिंग भाषाओं के कोड की तरह होता है. ईगर एक्ज़ीक्यूशन प्रोग्राम को, ग्राफ़ एक्ज़ीक्यूशन प्रोग्राम की तुलना में डीबग करना ज़्यादा आसान होता है.
Estimator
यह TensorFlow का पुराना एपीआई है. Estimators के बजाय tf.keras का इस्तेमाल करें.
F
फ़ीचर इंजीनियरिंग
यह एक ऐसी प्रोसेस है जिसमें ये चरण शामिल होते हैं:
- यह तय करना कि मॉडल को ट्रेन करने के लिए, कौनसी सुविधाएं काम की हो सकती हैं.
- डेटासेट के रॉ डेटा को उन सुविधाओं के बेहतर वर्शन में बदलना.
उदाहरण के लिए, आपको लग सकता है कि temperature
एक काम की सुविधा है. इसके बाद, बकेटिंग का इस्तेमाल करके यह ऑप्टिमाइज़ किया जा सकता है कि मॉडल, अलग-अलग temperature
रेंज से क्या सीख सकता है.
फ़ीचर इंजीनियरिंग को कभी-कभी फ़ीचर एक्सट्रैक्शन या फ़ीचरराइज़ेशन भी कहा जाता है.
ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में संख्यात्मक डेटा: मॉडल, फ़ीचर वेक्टर का इस्तेमाल करके डेटा को कैसे प्रोसेस करता है लेख पढ़ें.
सुविधा की खास जानकारी
इसमें tf.Example प्रोटोकॉल बफ़र से features डेटा निकालने के लिए ज़रूरी जानकारी दी गई है. tf.Example प्रोटोकॉल बफ़र सिर्फ़ डेटा के लिए कंटेनर होता है. इसलिए, आपको यह जानकारी देनी होगी:
- एक्सट्रैक्ट किया जाने वाला डेटा (यानी कि सुविधाओं के लिए कुंजियां)
- डेटा टाइप (उदाहरण के लिए, फ़्लोट या इंट)
- लंबाई (तय की गई या जिसमें बदलाव किया जा सकता है)
G
ग्राफ़
TensorFlow में, कंप्यूटेशन स्पेसिफ़िकेशन. ग्राफ़ में मौजूद नोड, कार्रवाइयों को दिखाते हैं. किनारों को डायरेक्ट किया जाता है. ये किसी ऑपरेशन (Tensor) के नतीजे को किसी दूसरे ऑपरेशन के लिए ऑपरेंड के तौर पर पास करने के बारे में बताते हैं. ग्राफ़ को विज़ुअलाइज़ करने के लिए, TensorBoard का इस्तेमाल करें.
ग्राफ़ एक्ज़ीक्यूशन
यह TensorFlow का प्रोग्रामिंग एनवायरमेंट है. इसमें प्रोग्राम पहले ग्राफ़ बनाता है. इसके बाद, उस ग्राफ़ के पूरे या कुछ हिस्से को एक्ज़ीक्यूट करता है. TensorFlow 1.x में, ग्राफ़ एक्ज़ीक्यूशन डिफ़ॉल्ट एक्ज़ीक्यूशन मोड होता है.
इसकी तुलना ईगर एक्ज़ीक्यूशन से करें.
H
होस्ट
ऐक्सेलरेटर चिप (जीपीयू या टीपीयू) पर एमएल मॉडल को ट्रेनिंग देते समय, सिस्टम का वह हिस्सा जो इन दोनों को कंट्रोल करता है:
- कोड का पूरा फ़्लो.
- इनपुट पाइपलाइन से डेटा निकालने और उसे बदलने की प्रोसेस.
आम तौर पर, होस्ट सीपीयू पर चलता है, न कि ऐक्सलरेटर चिप पर. डिवाइस, ऐक्सलरेटर चिप पर टेंसर को मैनेज करता है.
L
Layers API (tf.layers)
यह TensorFlow API, लेयर के कंपोज़िशन के तौर पर डीप न्यूरल नेटवर्क बनाने के लिए होता है. Layers API की मदद से, अलग-अलग तरह की लेयर बनाई जा सकती हैं. जैसे:
tf.layers.Dense
, पूरी तरह से कनेक्ट की गई लेयर के लिए.tf.layers.Conv2D
, कनवोल्यूशनल लेयर के लिए.
Layers API, Keras लेयर के एपीआई के नियमों का पालन करता है. इसका मतलब है कि अलग प्रीफ़िक्स के अलावा, Layers API में मौजूद सभी फ़ंक्शन के नाम और सिग्नेचर, Keras layers API में मौजूद फ़ंक्शन के नाम और सिग्नेचर के जैसे ही होते हैं.
M
मेश
एमएल पैरलल प्रोग्रामिंग में, यह शब्द टीपीयू चिप को डेटा और मॉडल असाइन करने से जुड़ा है. साथ ही, यह तय करता है कि इन वैल्यू को कैसे शार्ड या रेप्लिकेट किया जाएगा.
मेश एक ऐसा शब्द है जिसके कई मतलब हो सकते हैं. इसका मतलब इनमें से कोई भी हो सकता है:
- टीपीयू चिप का फ़िज़िकल लेआउट.
- यह एक ऐब्स्ट्रैक्ट लॉजिकल कंस्ट्रक्ट है. इसका इस्तेमाल, डेटा और मॉडल को टीपीयू चिप पर मैप करने के लिए किया जाता है.
दोनों ही मामलों में, मेश को आकार के तौर पर तय किया जाता है.
मीट्रिक
वह आंकड़े जो आपके लिए अहम है.
मकसद एक ऐसी मेट्रिक होती है जिसे मशीन लर्निंग सिस्टम ऑप्टिमाइज़ करने की कोशिश करता है.
नहीं
नोड (TensorFlow ग्राफ़)
TensorFlow ग्राफ़ में कोई ऑपरेशन.
O
ऑपरेशन (ओपी)
TensorFlow में, ऐसी कोई भी प्रोसेस जो Tensor बनाती है, उसमें बदलाव करती है या उसे मिटाती है. उदाहरण के लिए, मैट्रिक्स को गुणा करना एक ऐसी कार्रवाई है जिसमें दो टेंसर को इनपुट के तौर पर लिया जाता है और एक टेंसर को आउटपुट के तौर पर जनरेट किया जाता है.
P
पैरामीटर सर्वर (पीएस)
यह एक ऐसा जॉब होता है जो डिस्ट्रिब्यूटेड सेटिंग में, मॉडल के पैरामीटर को ट्रैक करता है.
Q
सूची
यह एक TensorFlow Operation है, जो एक कतार डेटा स्ट्रक्चर को लागू करता है. आम तौर पर, इसका इस्तेमाल I/O में किया जाता है.
R
रैंक (टेंसर)
Tensor में डाइमेंशन की संख्या. उदाहरण के लिए, स्केलर की रैंक 0 होती है, वेक्टर की रैंक 1 होती है, और मैट्रिक्स की रैंक 2 होती है.
इसे रैंक (क्रम) से भ्रमित न करें.
रूट डायरेक्ट्री
यह वह डायरेक्ट्री होती है जिसे आपने TensorFlow चेकपॉइंट और कई मॉडल की इवेंट फ़ाइलों की सबडायरेक्ट्री होस्ट करने के लिए तय किया है.
S
सेव मॉडल
TensorFlow मॉडल को सेव करने और वापस पाने के लिए सुझाया गया फ़ॉर्मैट. SavedModel एक ऐसा फ़ॉर्मैट है जिसमें भाषा से जुड़ी कोई जानकारी नहीं होती. साथ ही, यह एक ऐसा फ़ॉर्मैट है जिसे वापस लाया जा सकता है. इससे, ज़्यादा बेहतर सिस्टम और टूल, TensorFlow मॉडल बना सकते हैं, उनका इस्तेमाल कर सकते हैं, और उन्हें बदल सकते हैं.
पूरी जानकारी के लिए, TensorFlow प्रोग्रामर गाइड का सेव करना और वापस लाना सेक्शन देखें.
सेवर
यह TensorFlow ऑब्जेक्ट, मॉडल के चेकपॉइंट सेव करने के लिए ज़िम्मेदार होता है.
शार्ड
ट्रेनिंग सेट या मॉडल का लॉजिकल डिविज़न. आम तौर पर, कुछ प्रोसेस उदाहरणों या पैरामीटर को बराबर साइज़ वाले हिस्सों में बांटकर, शार्ड बनाती हैं. इसके बाद, हर शार्ड को अलग-अलग मशीन पर असाइन किया जाता है.
मॉडल को शार्ड करने को मॉडल पैरललिज़्म कहा जाता है; डेटा को शार्ड करने को डेटा पैरललिज़्म कहा जाता है.
खास जानकारी
TensorFlow में, किसी चरण पर कैलकुलेट की गई वैल्यू या वैल्यू का सेट. आम तौर पर, इसका इस्तेमाल ट्रेनिंग के दौरान मॉडल मेट्रिक को ट्रैक करने के लिए किया जाता है.
T
Tensor
TensorFlow प्रोग्राम में इस्तेमाल होने वाला मुख्य डेटा स्ट्रक्चर. टेंसर, N-डाइमेंशनल (जहां N बहुत बड़ा हो सकता है) डेटा स्ट्रक्चर होते हैं. ये आम तौर पर स्केलर, वेक्टर या मैट्रिक्स होते हैं. टेंसर के एलिमेंट में पूर्णांक, फ़्लोटिंग-पॉइंट या स्ट्रिंग वैल्यू हो सकती हैं.
TensorBoard
यह डैशबोर्ड, एक या उससे ज़्यादा TensorFlow प्रोग्राम के एक्ज़ीक्यूशन के दौरान सेव की गई खास जानकारी दिखाता है.
TensorFlow
यह बड़े पैमाने पर डिस्ट्रिब्यूट किया गया मशीन लर्निंग प्लैटफ़ॉर्म है. इस शब्द का मतलब, TensorFlow स्टैक में मौजूद एपीआई की बुनियादी लेयर से भी है. यह लेयर, डेटाफ़्लो ग्राफ़ पर सामान्य कंप्यूटेशन की सुविधा देती है.
TensorFlow का इस्तेमाल मुख्य रूप से मशीन लर्निंग के लिए किया जाता है. हालांकि, इसका इस्तेमाल ऐसे नॉन-एमएल टास्क के लिए भी किया जा सकता है जिनमें डेटाफ़्लो ग्राफ़ का इस्तेमाल करके संख्यात्मक कंप्यूटेशन की ज़रूरत होती है.
TensorFlow Playground
यह एक ऐसा प्रोग्राम है जो यह दिखाता है कि अलग-अलग हाइपरपैरामीटर, मॉडल (मुख्य रूप से न्यूरल नेटवर्क) की ट्रेनिंग को किस तरह से प्रभावित करते हैं. TensorFlow Playground को आज़माने के लिए, http://playground.tensorflow.org पर जाएं.
TensorFlow Serving
ट्रेन किए गए मॉडल को प्रोडक्शन में डिप्लॉय करने के लिए एक प्लैटफ़ॉर्म.
टेंसर प्रोसेसिंग यूनिट (टीपीयू)
यह ऐप्लिकेशन के लिए खास तौर पर बनाया गया इंटिग्रेटेड सर्किट (एएसआईसी) है. यह मशीन लर्निंग के वर्कलोड की परफ़ॉर्मेंस को ऑप्टिमाइज़ करता है. इन एएसआईसी को TPU डिवाइस पर कई TPU चिप के तौर पर डिप्लॉय किया जाता है.
टेंसर रैंक
rank (Tensor) देखें.
टेंसर का आकार
किसी Tensor में अलग-अलग डाइमेंशन में मौजूद एलिमेंट की संख्या.
उदाहरण के लिए, [5, 10]
टेंसर का आकार एक डाइमेंशन में 5 और दूसरे में 10 है.
टेंसर का साइज़
किसी Tensor में मौजूद स्केलर की कुल संख्या. उदाहरण के लिए, a
[5, 10]
टेंसर का साइज़ 50 है.
tf.Example
यह मशीन लर्निंग मॉडल को ट्रेनिंग देने या अनुमान लगाने के लिए, इनपुट डेटा के बारे में बताने वाला एक स्टैंडर्ड प्रोटोकॉल बफ़र है.
tf.keras
Keras को TensorFlow में इंटिग्रेट किया गया है.
टीपीयू (TPU)
टेंसर प्रोसेसिंग यूनिट के लिए इस्तेमाल किया जाने वाला संक्षिप्त नाम.
TPU चिप
यह एक प्रोग्रामेबल लीनियर अलजेब्रा ऐक्सलरेटर है. इसमें ऑन-चिप हाई बैंडविथ मेमोरी होती है. इसे मशीन लर्निंग के वर्कलोड के लिए ऑप्टिमाइज़ किया गया है. एक TPU डिवाइस पर कई TPU चिप डिप्लॉय किए जाते हैं.
TPU डिवाइस
यह एक प्रिंटेड सर्किट बोर्ड (पीसीबी) होता है. इसमें कई टीपीयू चिप, ज़्यादा बैंडविड्थ वाले नेटवर्क इंटरफ़ेस, और सिस्टम को ठंडा रखने वाला हार्डवेयर होता है.
TPU नोड
Google Cloud पर मौजूद एक टीपीयू संसाधन, जिसमें टीपीयू का कोई खास टाइप होता है. टीपीयू नोड, पीयर वीपीसी नेटवर्क से आपके वीपीसी नेटवर्क से कनेक्ट होता है. TPU नोड, Cloud TPU API में तय किया गया एक संसाधन है.
टीपीयू (TPU) पॉड
Google के डेटा सेंटर में TPU डिवाइसों का कोई खास कॉन्फ़िगरेशन. टीपीयू पॉड में मौजूद सभी डिवाइस, एक-दूसरे से कनेक्ट होते हैं. इसके लिए, तेज़ स्पीड वाला एक खास नेटवर्क इस्तेमाल किया जाता है. टीपीयू पॉड, किसी टीपीयू वर्शन के लिए उपलब्ध टीपीयू डिवाइसों का सबसे बड़ा कॉन्फ़िगरेशन होता है.
TPU रिसॉर्स
Google Cloud पर मौजूद ऐसी टीपीयू इकाई जिसे बनाया, मैनेज किया या इस्तेमाल किया जाता है. उदाहरण के लिए, TPU नोड और TPU टाइप, TPU संसाधन हैं.
TPU स्लाइस
टीपीयू स्लाइस, टीपीयू पॉड में मौजूद टीपीयू डिवाइसों का एक छोटा हिस्सा होता है. टीपीयू स्लाइस में मौजूद सभी डिवाइस, एक-दूसरे से हाई-स्पीड नेटवर्क के ज़रिए कनेक्ट होते हैं.
TPU का टाइप
किसी खास टीपीयू हार्डवेयर वर्शन के साथ एक या उससे ज़्यादा टीपीयू डिवाइस का कॉन्फ़िगरेशन. Google Cloud पर TPU नोड बनाते समय, टीपीयू का टाइप चुना जाता है. उदाहरण के लिए, v2-8
TPU टाइप, आठ कोर वाला एक TPU v2 डिवाइस है. v3-2048
टीपीयू टाइप में, नेटवर्क से जुड़े 256 टीपीयू v3 डिवाइस और कुल 2048 कोर होते हैं. टीपीयू टाइप, Cloud TPU API में तय किया गया एक संसाधन है.
TPU वर्कर
यह एक ऐसी प्रोसेस है जो होस्ट मशीन पर चलती है और TPU डिवाइसों पर मशीन लर्निंग प्रोग्राम को एक्ज़ीक्यूट करती है.