मशीन लर्निंग शब्दावली: TensorFlow

इस पेज पर, TensorFlow की ग्लॉसरी में शामिल शब्दों की जानकारी दी गई है. ग्लॉसरी में मौजूद सभी शब्दों के लिए, यहां क्लिक करें.

B

एक साथ कई अनुमान लगाना

#TensorFlow
#GoogleCloud

बिना लेबल वाले कई उदाहरणों के आधार पर, अनुमान नतीजे निकालने की प्रोसेस. इन उदाहरणों को छोटे सबसेट ("बैच") में बांटा जाता है.

एक साथ कई अनुमान लगाने की सुविधा, ऐक्सेलरेटर चिप की पैरलल प्रोसेसिंग की सुविधाओं का फ़ायदा ले सकती है. इसका मतलब है कि एक से ज़्यादा ऐक्सेलरेटर, एक साथ लेबल न किए गए उदाहरणों के अलग-अलग बैच के आधार पर अनुमान लगा सकते हैं. इससे हर सेकंड में अनुमान लगाने की संख्या काफ़ी बढ़ जाती है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में प्रोडक्शन एमएल सिस्टम: स्टैटिक बनाम डाइनैमिक अनुमानी देखें.

C

Cloud TPU

#TensorFlow
#GoogleCloud

यह एक खास हार्डवेयर एक्सेलरेटर है, जिसे Google Cloud पर मशीन लर्निंग वर्कलोड को तेज़ करने के लिए डिज़ाइन किया गया है.

D

डेटासेट एपीआई (tf.data)

#TensorFlow

डेटा को पढ़ने और उसे मशीन लर्निंग एल्गोरिदम के लिए ज़रूरी फ़ॉर्मैट में बदलने के लिए, TensorFlow का एक हाई-लेवल एपीआई. tf.data.Dataset ऑब्जेक्ट, एलिमेंट के क्रम को दिखाता है. इसमें हर एलिमेंट में एक या एक से ज़्यादा टेंसर होते हैं. tf.data.Iterator ऑब्जेक्ट, Dataset के एलिमेंट का ऐक्सेस देता है.

डिवाइस

#TensorFlow
#GoogleCloud

ओवरलोड किया गया शब्द, जिसकी ये दो संभावित परिभाषाएं हैं:

  1. हार्डवेयर की एक कैटगरी, जिसमें सीपीयू, जीपीयू, और TPU शामिल हैं. ये हार्डवेयर, TensorFlow सेशन चला सकते हैं.
  2. ऐक्सेलरेटर चिप (GPU या TPU) पर किसी एमएल मॉडल को ट्रेनिंग देते समय, सिस्टम का वह हिस्सा जो असल में टेंसर और एम्बेड में बदलाव करता है. यह डिवाइस, ऐक्सेलरेटर चिप पर काम करता है. इसके उलट, होस्ट आम तौर पर सीपीयू पर चलता है.

E

ईगर एक्ज़ीक्यूशन

#TensorFlow

TensorFlow प्रोग्रामिंग एनवायरमेंट, जिसमें ऑपरेशन तुरंत चलते हैं. इसके उलट, ग्राफ़ को लागू करने के दौरान, ऑपरेशन तब तक नहीं चलते, जब तक उनका साफ़ तौर पर आकलन नहीं किया जाता. ईगर एक्ज़ीक्यूशन, इंपरिएटिव इंटरफ़ेस है. यह ज़्यादातर प्रोग्रामिंग भाषाओं के कोड की तरह ही होता है. आम तौर पर, ग्राफ़ एक्ज़ीक्यूशन प्रोग्राम की तुलना में, ईगर एक्ज़ीक्यूशन प्रोग्राम को डीबग करना काफ़ी आसान होता है.

Estimator

#TensorFlow

TensorFlow का एक ऐसा एपीआई जिसका इस्तेमाल नहीं किया जा सकता. एस्टिमेटर्स के बजाय, tf.keras का इस्तेमाल करें.

F

फ़ीचर इंजीनियरिंग

#fundamentals
#TensorFlow

यह एक ऐसी प्रोसेस है जिसमें ये चरण शामिल होते हैं:

  1. यह तय करना कि मॉडल को ट्रेनिंग देने के लिए, किन सुविधाओं का इस्तेमाल किया जा सकता है.
  2. डेटासेट के रॉ डेटा को उन सुविधाओं के बेहतर वर्शन में बदलना.

उदाहरण के लिए, आपके हिसाब से temperature एक काम की सुविधा हो सकती है. इसके बाद, बकेट के साथ एक्सपेरिमेंट किया जा सकता है, ताकि यह ऑप्टिमाइज़ किया जा सके कि मॉडल अलग-अलग temperature रेंज से क्या सीख सकता है.

फ़ीचर इंजीनियरिंग को कभी-कभी फ़ीचर एक्सट्रैक्शन या फ़ीचराइज़ेशन भी कहा जाता है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में न्यूमेरिकल डेटा: कोई मॉडल, फ़ीचर वैक्टर का इस्तेमाल करके डेटा को कैसे डालता है देखें.

सुविधा की खास बातें

#TensorFlow

tf.Example प्रोटोकॉल बफ़र से features डेटा निकालने के लिए ज़रूरी जानकारी के बारे में बताता है. क्वेरी के लिए इस्तेमाल किया गया प्रोटोकॉल बफ़र, डेटा का सिर्फ़ एक कंटेनर होता है.इसलिए, आपको इन चीज़ों की जानकारी देनी होगी:

  • वह डेटा जिसे एक्सट्रैक्ट करना है (यानी, सुविधाओं के लिए कुंजियां)
  • डेटा टाइप (उदाहरण के लिए, फ़्लोट या int)
  • लंबाई (तय या बदलाव की जा सकने वाली)

G

ग्राफ़

#TensorFlow

TensorFlow में, कैलकुलेशन की खास बातें. ग्राफ़ में मौजूद नोड, ऑपरेशन दिखाते हैं. एज डायरेक्ट किए जाते हैं और किसी ऑपरेशन (Tensor) के नतीजे को ऑपरेंड के तौर पर किसी दूसरे ऑपरेशन में पास करने के बारे में बताते हैं. ग्राफ़ को विज़ुअलाइज़ करने के लिए, TensorBoard का इस्तेमाल करें.

ग्राफ़ चलाना

#TensorFlow

TensorFlow प्रोग्रामिंग एनवायरमेंट, जिसमें प्रोग्राम पहले एक ग्राफ़ बनाता है और फिर उस ग्राफ़ के पूरे या कुछ हिस्से को लागू करता है. ग्राफ़ को लागू करने का तरीका, TensorFlow 1.x में डिफ़ॉल्ट तौर पर लागू होने का तरीका है.

तय समय से पहले ट्रिगर होने की तुलना में.

H

होस्ट

#TensorFlow
#GoogleCloud

ऐक्सेलरेटर चिप (जीपीयू या TPU) पर एमएल मॉडल को ट्रेनिंग देते समय, सिस्टम का वह हिस्सा इन दोनों को कंट्रोल करता है:

  • कोड का पूरा फ़्लो.
  • इनपुट पाइपलाइन को निकालना और उसमें बदलाव करना.

आम तौर पर, होस्ट ऐक्सेलरेटर चिप पर नहीं, बल्कि सीपीयू पर चलता है. डिवाइस, ऐक्सेलरेटर चिप पर टेंसर में बदलाव करता है.

L

Layers API (tf.layers)

#TensorFlow

लेयर के कॉम्पोज़िशन के तौर पर, डीप न्यूरल नेटवर्क बनाने के लिए TensorFlow एपीआई. Layers API की मदद से, अलग-अलग तरह की लेयर बनाई जा सकती हैं. जैसे:

Layers API, Keras लेयर एपीआई के नियमों का पालन करता है. इसका मतलब है कि अलग प्रीफ़िक्स के अलावा, Layers API के सभी फ़ंक्शन के नाम और हस्ताक्षर, Keras layers API के उन फ़ंक्शन के नाम और हस्ताक्षर जैसे ही होते हैं.

M

मेश

#TensorFlow
#GoogleCloud

एमएल पैरलल प्रोग्रामिंग में, यह TPU चिप को डेटा और मॉडल असाइन करने से जुड़ा एक शब्द है. साथ ही, यह तय करने से जुड़ा है कि इन वैल्यू को कैसे शेयर किया जाएगा या डुप्लीकेट किया जाएगा.

मेश एक ऐसा शब्द है जिसका इस्तेमाल कई कामों के लिए किया जाता है. इसका मतलब इनमें से कोई एक हो सकता है:

  • TPU चिप का फ़िज़िकल लेआउट.
  • डेटा और मॉडल को TPU चिप पर मैप करने के लिए, एक ऐब्स्ट्रैक्ट लॉजिकल कंस्ट्रक्ट.

दोनों ही मामलों में, मेश को आकार के तौर पर दिखाया जाता है.

मीट्रिक

#TensorFlow

ऐसा आंकड़ा जिसमें आपकी दिलचस्पी है.

मकसद एक ऐसी मेट्रिक है जिसे मशीन लर्निंग सिस्टम ऑप्टिमाइज़ करने की कोशिश करता है.

नहीं

नोड (TensorFlow ग्राफ़)

#TensorFlow

TensorFlow ग्राफ़ में कोई ऑपरेशन.

O

ऑपरेशन (op)

#TensorFlow

TensorFlow में, Tensor बनाने, उसमें बदलाव करने या उसे मिटाने वाली कोई भी प्रोसेस. उदाहरण के लिए, मैट्रिक्स का गुणा करने की कार्रवाई में दो टेंसर इनपुट के तौर पर इस्तेमाल किए जाते हैं और एक टेंसर आउटपुट के तौर पर जनरेट होता है.

P

पैरामीटर सर्वर (पीएस)

#TensorFlow

एक ऐसा जॉब जो डिस्ट्रिब्यूट की गई सेटिंग में, मॉडल के पैरामीटर को ट्रैक करता है.

Q

सूची

#TensorFlow

TensorFlow का एक ऑपरेशन, जो कतार के डेटा स्ट्रक्चर को लागू करता है. आम तौर पर, इसका इस्तेमाल I/O में किया जाता है.

R

rank (Tensor)

#TensorFlow

Tensor में डाइमेंशन की संख्या. उदाहरण के लिए, स्केलर की रैंक 0 होती है, वेक्टर की रैंक 1 होती है, और मैट्रिक की रैंक 2 होती है.

इसे रैंक (क्रम) से न जोड़ें.

रूट डायरेक्ट्री

#TensorFlow

यह वह डायरेक्ट्री होती है जिसे आपने TensorFlow के चेकपॉइंट की सब-डायरेक्ट्री और एक से ज़्यादा मॉडल की इवेंट फ़ाइलों को होस्ट करने के लिए तय किया है.

S

सेव मॉडल

#TensorFlow

TensorFlow मॉडल को सेव और वापस लाने के लिए सुझाया गया फ़ॉर्मैट. SavedModel, भाषा के हिसाब से काम करने वाला और रिकवर किया जा सकने वाला सीरियलाइज़ेशन फ़ॉर्मैट है. इससे, बेहतर लेवल के सिस्टम और टूल, TensorFlow मॉडल बना सकते हैं, उनका इस्तेमाल कर सकते हैं, और उन्हें बदल सकते हैं.

पूरी जानकारी के लिए, TensorFlow प्रोग्रामर गाइड का सेव और वापस लाने वाला सेक्शन देखें.

सेवर

#TensorFlow

मॉडल के चेकपॉइंट सेव करने के लिए ज़िम्मेदार TensorFlow ऑब्जेक्ट.

शर्ड

#TensorFlow
#GoogleCloud

ट्रेनिंग सेट या मॉडल का लॉजिकल डिवीज़न. आम तौर पर, कुछ प्रोसेस उदाहरणों या पैरामीटर को बराबर साइज़ के हिस्सों में बांटकर, शर्ड बनाती हैं. इसके बाद, हर शर्ड को किसी अलग मशीन को असाइन किया जाता है.

मॉडल को अलग-अलग हिस्सों में बांटने को मॉडल पैरलेलिज्म कहा जाता है; डेटा को अलग-अलग हिस्सों में बांटने को डेटा पैरलेलिज्म कहा जाता है.

सारांश

#TensorFlow

TensorFlow में, किसी खास चरण में कैलकुलेट की गई वैल्यू या वैल्यू का सेट. आम तौर पर, इसका इस्तेमाल ट्रेनिंग के दौरान मॉडल की मेट्रिक को ट्रैक करने के लिए किया जाता है.

T

Tensor

#TensorFlow

TensorFlow प्रोग्राम में मुख्य डेटा स्ट्रक्चर. टेंसर, N-डाइमेंशनल (जहां N बहुत बड़ा हो सकता है) डेटा स्ट्रक्चर होते हैं. आम तौर पर, ये स्केलर, वैक्टर या मैट्रिक्स होते हैं. टेंसर के एलिमेंट में, पूर्णांक, फ़्लोटिंग-पॉइंट या स्ट्रिंग वैल्यू हो सकती हैं.

TensorBoard

#TensorFlow

एक या एक से ज़्यादा TensorFlow प्रोग्राम चलाने के दौरान सेव की गई खास जानकारी दिखाने वाला डैशबोर्ड.

TensorFlow

#TensorFlow

बड़े पैमाने पर उपलब्ध, डिस्ट्रिब्यूट किया गया मशीन लर्निंग प्लैटफ़ॉर्म. यह शब्द, TensorFlow स्टैक में मौजूद एपीआई की बुनियादी लेयर को भी दिखाता है. यह लेयर, डेटाफ़्लो ग्राफ़ पर सामान्य कैलकुलेशन की सुविधा देती है.

TensorFlow का इस्तेमाल मुख्य रूप से मशीन लर्निंग के लिए किया जाता है. हालांकि, TensorFlow का इस्तेमाल उन गैर-मशीन लर्निंग टास्क के लिए भी किया जा सकता है जिनमें डेटाफ़्लो ग्राफ़ का इस्तेमाल करके संख्यात्मक गणना की ज़रूरत होती है.

TensorFlow Playground

#TensorFlow

यह एक ऐसा प्रोग्राम है जो विज़ुअलाइज़ करता है कि अलग-अलग हाइपरपैरामीटर, मॉडल (मुख्य रूप से न्यूरल नेटवर्क) की ट्रेनिंग पर कैसे असर डालते हैं. TensorFlow Playground को आज़माने के लिए, http://playground.tensorflow.org पर जाएं.

TensorFlow Serving

#TensorFlow

ट्रेन किए गए मॉडल को प्रोडक्शन में डिप्लॉय करने के लिए प्लैटफ़ॉर्म.

टेंसर प्रोसेसिंग यूनिट (TPU)

#TensorFlow
#GoogleCloud

ऐप्लिकेशन के हिसाब से बनाया गया इंटिग्रेटेड सर्किट (एएसआईसी), जो मशीन लर्निंग वर्कलोड की परफ़ॉर्मेंस को ऑप्टिमाइज़ करता है. इन एएसआईसी को TPU डिवाइस पर, कई TPU चिप के तौर पर डिप्लॉय किया जाता है.

टेंसर रैंक

#TensorFlow

रैंक (टेंसर) देखें.

टेंसर का आकार

#TensorFlow

अलग-अलग डाइमेंशन में, Tensor में मौजूद एलिमेंट की संख्या. उदाहरण के लिए, किसी [5, 10] टेंसर का एक डाइमेंशन 5 और दूसरा डाइमेंशन 10 वाला हो सकता है.

टेंसर का साइज़

#TensorFlow

Tensor में स्केलर की कुल संख्या. उदाहरण के लिए, किसी [5, 10] टेंसर का साइज़ 50 है.

tf.Example

#TensorFlow

मशीन लर्निंग मॉडल को ट्रेनिंग देने या अनुमान लगाने के लिए, इनपुट डेटा की जानकारी देने वाला स्टैंडर्ड प्रोटोकॉल बफ़र.

tf.keras

#TensorFlow

Keras को TensorFlow के साथ इंटिग्रेट किया गया है.

टीपीयू (TPU)

#TensorFlow
#GoogleCloud

टेंसर प्रोसेसिंग यूनिट का छोटा नाम.

TPU चिप

#TensorFlow
#GoogleCloud

प्रोग्राम किया जा सकने वाला लीनियर ऐल्जेब्रा एक्सेलरेटर, जिसमें चिप पर हाई बैंडविथ वाली मेमोरी होती है. इसे मशीन लर्निंग के ज़्यादा काम के लिए ऑप्टिमाइज़ किया गया है. TPU डिवाइस पर कई TPU चिप डिप्लॉय किए जाते हैं.

TPU डिवाइस

#TensorFlow
#GoogleCloud

एक प्रिंटेड सर्किट बोर्ड (पीसीबी), जिसमें कई TPU चिप, ज़्यादा बैंडविड्थ वाले नेटवर्क इंटरफ़ेस, और सिस्टम कूलिंग हार्डवेयर होते हैं.

TPU मास्टर

#TensorFlow
#GoogleCloud

होस्ट मशीन पर चलने वाली मुख्य कोऑर्डिनेशन प्रोसेस, जो TPU वर्कर्स को डेटा, नतीजे, प्रोग्राम, परफ़ॉर्मेंस, और सिस्टम की परफ़ॉर्मेंस की जानकारी भेजती है और उनसे जानकारी पाती है. TPU मास्टर, TPU डिवाइसों के सेटअप और बंद होने को भी मैनेज करता है.

TPU नोड

#TensorFlow
#GoogleCloud

Google Cloud पर मौजूद ऐसा TPU रिसॉर्स जिसमें कोई खास TPU टाइप हो. TPU नोड, पियर वीपीसी नेटवर्क से आपके वीपीसी नेटवर्क से कनेक्ट होता है. TPU नोड, Cloud TPU API में बताए गए संसाधन हैं.

टीपीयू (TPU) पॉड

#TensorFlow
#GoogleCloud

Google के डेटा सेंटर में, TPU डिवाइसों का कोई खास कॉन्फ़िगरेशन. TPU पॉड में मौजूद सभी डिवाइस, एक खास ज़्यादा स्पीड वाले नेटवर्क से एक-दूसरे से कनेक्ट होते हैं. TPU पॉड, किसी खास TPU वर्शन के लिए उपलब्ध TPU डिवाइसों का सबसे बड़ा कॉन्फ़िगरेशन होता है.

TPU रिसॉर्स

#TensorFlow
#GoogleCloud

Google Cloud पर मौजूद TPU इकाई, जिसे आपने बनाया है, मैनेज किया है या इस्तेमाल किया है. उदाहरण के लिए, TPU नोड और TPU टाइप, TPU संसाधन हैं.

TPU स्लाइस

#TensorFlow
#GoogleCloud

TPU स्लाइस, TPU पॉड में मौजूद TPU डिवाइसों का एक छोटा हिस्सा होता है. TPU स्लाइस में मौजूद सभी डिवाइस, एक खास ज़्यादा स्पीड वाले नेटवर्क से एक-दूसरे से कनेक्ट होते हैं.

TPU का टाइप

#TensorFlow
#GoogleCloud

किसी खास TPU हार्डवेयर वर्शन के साथ, एक या एक से ज़्यादा TPU डिवाइसों का कॉन्फ़िगरेशन. Google Cloud पर TPU नोड बनाते समय, TPU का टाइप चुना जाता है. उदाहरण के लिए, v2-8 TPU टाइप, आठ कोर वाला एक TPU v2 डिवाइस है. v3-2048 टाइप के TPU में, 256 कनेक्ट किए गए TPU v3 डिवाइस और कुल 2,048 कोर होते हैं. TPU टाइप, Cloud TPU API में बताए गए संसाधन हैं.

TPU वर्कर

#TensorFlow
#GoogleCloud

यह एक प्रोसेस है, जो होस्ट मशीन पर चलती है और TPU डिवाइसों पर मशीन लर्निंग प्रोग्राम को लागू करती है.