मशीन लर्निंग ग्लॉसरी

इस शब्दावली में, मशीन लर्निंग से जुड़े शब्दों के बारे में बताया गया है.

A

टिशू हटाना

किसी सुविधा या कॉम्पोनेंट को मॉडल से कुछ समय के लिए हटाकर, उसकी अहमियत का आकलन करने की तकनीक. इसके बाद, उस सुविधा या कॉम्पोनेंट के बिना मॉडल को फिर से ट्रेन करें. अगर फिर से ट्रेन किए गए मॉडल की परफ़ॉर्मेंस काफ़ी खराब होती है, तो हो सकता है कि हटाई गई सुविधा या कॉम्पोनेंट अहम हो.

उदाहरण के लिए, मान लें कि आपने 10 सुविधाओं पर क्लासिफ़िकेशन मॉडल को ट्रेन किया है और टेस्ट सेट पर 88% प्रिसिज़न हासिल किया है. पहली सुविधा की ज़रूरत का पता लगाने के लिए, मॉडल को सिर्फ़ नौ अन्य सुविधाओं का इस्तेमाल करके फिर से ट्रेन किया जा सकता है. अगर फिर से ट्रेन किया गया मॉडल काफ़ी खराब परफ़ॉर्म करता है (उदाहरण के लिए, 55% सटीक), तो हो सकता है कि हटाई गई सुविधा अहम हो. इसके उलट, अगर फिर से ट्रेन किया गया मॉडल उतना ही अच्छा परफ़ॉर्म करता है, तो हो सकता है कि वह सुविधा उतनी ज़रूरी न हो.

एब्लेशन से इन चीज़ों की अहमियत का पता लगाने में भी मदद मिलती है:

  • बड़े कॉम्पोनेंट, जैसे कि बड़े एमएल सिस्टम का पूरा सबसिस्टम
  • प्रोसेस या तकनीकें, जैसे कि डेटा को प्रोसेस करने से पहले की जाने वाली कार्रवाई

दोनों ही मामलों में, आपको यह पता चलेगा कि कॉम्पोनेंट हटाने के बाद, सिस्टम की परफ़ॉर्मेंस में क्या बदलाव होता है या नहीं.

A/B टेस्टिंग

आंकड़ों के हिसाब से, दो (या उससे ज़्यादा) तकनीकों की तुलना करने का तरीका—A और B. आम तौर पर, A एक मौजूदा तकनीक होती है और B एक नई तकनीक होती है. A/B टेस्टिंग से यह पता चलता है कि कौनसी तकनीक बेहतर परफ़ॉर्म करती है. साथ ही, यह भी पता चलता है कि अंतर आंकड़ों के हिसाब से अहम है या नहीं.

A/B टेस्टिंग में आम तौर पर, दो तकनीकों के आधार पर किसी एक मेट्रिक की तुलना की जाती है. उदाहरण के लिए, दो तकनीकों के लिए मॉडल की सटीकनेस की तुलना कैसे की जाती है? हालांकि, A/B टेस्टिंग की मदद से, किसी भी तय संख्या वाली मेट्रिक की तुलना की जा सकती है.

ऐक्सेलरेटर चिप

#GoogleCloud

खास हार्डवेयर कॉम्पोनेंट की कैटगरी, जिसे डीप लर्निंग एल्गोरिदम के लिए ज़रूरी अहम कैलकुलेशन करने के लिए डिज़ाइन किया गया है.

सामान्य काम के लिए इस्तेमाल होने वाले सीपीयू की तुलना में, ऐक्सेलरेटर चिप (या कम शब्दों में ऐक्सेलरेटर) से, ट्रेनिंग और अनुमान लगाने वाले टास्क की स्पीड और परफ़ॉर्मेंस में काफ़ी बढ़ोतरी हो सकती है. ये न्यूरल नेटवर्क को ट्रेन करने और कंप्यूटेशनल तौर पर ज़्यादा मेहनत वाले मिलते-जुलते टास्क के लिए बेहतरीन हैं.

ऐक्सेलरेटर चिप के उदाहरणों में ये शामिल हैं:

  • Google की टेंसर प्रोसेसिंग यूनिट (TPUs), जिनमें डीप लर्निंग के लिए खास हार्डवेयर होता है.
  • NVIDIA के जीपीयू, जिन्हें शुरुआत में ग्राफ़िक्स प्रोसेसिंग के लिए डिज़ाइन किया गया था, अब इन्हें पैरलल प्रोसेसिंग के लिए डिज़ाइन किया गया है. इससे प्रोसेसिंग की स्पीड काफ़ी बढ़ सकती है.

सटीक

#fundamentals

सही कैटगरी के अनुमान की संख्या को अनुमान की कुल संख्या से भाग देने पर. यानी:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

उदाहरण के लिए, अगर किसी मॉडल ने 40 सही और 10 गलत अनुमानों का अनुमान लगाया है, तो उसका सटीक अनुमान:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

बाइनरी क्लासिफ़िकेशन, सही अनुमान और गलत अनुमान की अलग-अलग कैटगरी के लिए खास नाम उपलब्ध कराता है. इसलिए, बाइनरी क्लासिफ़िकेशन के लिए सटीक होने का फ़ॉर्मूला इस तरह है:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

कहां:

सटीक होने की तुलना, प्रिसिज़न और रीकॉल से करें.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में क्लासिफ़िकेशन: सटीक, रीकॉल, सटीक और मिलती-जुलती मेट्रिक देखें.

ऐक्शन गेम

#rl

रीइंफ़ोर्समेंट लर्निंग में, वह तरीका जिससे एजेंट, एनवायरमेंट की स्टेटस के बीच ट्रांज़िशन करता है. एजेंट, नीति का इस्तेमाल करके कार्रवाई चुनता है.

ऐक्टिवेशन फ़ंक्शन

#fundamentals

यह एक ऐसा फ़ंक्शन है जिसकी मदद से न्यूरल नेटवर्क, फ़ीचर और लेबल के बीच नॉन-लीनियर (जटिल) संबंधों को सीख सकते हैं.

चालू करने के लोकप्रिय फ़ंक्शन में ये शामिल हैं:

ऐक्टिवेशन फ़ंक्शन के प्लॉट कभी भी एक सीधी रेखा नहीं होते. उदाहरण के लिए, ReLU ऐक्टिवेशन फ़ंक्शन के प्लॉट में दो सीधी रेखाएं होती हैं:

दो लाइनों का कार्टेशियन प्लॉट. पहली पंक्ति में, y की वैल्यू 0 है. यह वैल्यू x-ऐक्सिस पर -infinity,0 से 0,-0 तक चलती है.
          दूसरी लाइन 0,0 से शुरू होती है. इस लाइन का स्लोप +1 है, इसलिए यह 0,0 से +infinity,+infinity तक चलती है.

सिग्मॉइड ऐक्टिवेशन फ़ंक्शन का प्लॉट ऐसा दिखता है:

दो डाइमेंशन वाला कर्व प्लॉट, जिसमें x वैल्यू का डोमेन -इनफ़िनिटी से लेकर +पॉज़िटिव तक है. वहीं, y वैल्यू की रेंज करीब 0 से लेकर करीब 1 तक है. जब x 0 है, तो y 0.5 है. कर्व का ढलान हमेशा
          सकारात्मक होता है. 0, 0.5 पर सबसे ज़्यादा ढलान होता है और x की वैल्यू बढ़ने पर,ढलान धीरे-धीरे कम होता जाता है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में न्यूरल नेटवर्क: ऐक्टिवेशन फ़ंक्शन देखें.

ऐक्टिव लर्निंग

ट्रेनिंग का एक तरीका, जिसमें एल्गोरिदम उस डेटा को चुनें जिससे उसे सीखना है. ऐक्टिव लर्निंग का तरीका तब ज़्यादा कारगर होता है, जब लेबल किए गए उदाहरण कम हों या उन्हें हासिल करना महंगा हो. लेबल किए गए अलग-अलग उदाहरणों को ढूंढने के बजाय, ऐक्टिव लर्निंग एल्गोरिदम चुनिंदा उदाहरणों को ढूंढता है. ये ऐसे उदाहरण होते हैं जिनकी उसे सीखने के लिए ज़रूरत होती है.

AdaGrad

यह एक बेहतर ग्रेडिएंट डिसेंट एल्गोरिदम है, जो हर पैरामीटर के ग्रेडिएंट को फिर से स्केल करता है. इससे हर पैरामीटर को एक अलग लर्निंग रेट मिलता है. पूरी जानकारी के लिए, AdaGrad का यह पेपर देखें.

एजेंट

#rl

रीइंफ़ोर्समेंट लर्निंग में, ऐसी इकाई जो नीति का इस्तेमाल करके, एनवायरमेंट के स्टेटस के बीच ट्रांज़िशन करने से मिलने वाले अनुमानित रिटर्न को बढ़ाती है.

आम तौर पर, एजेंट एक ऐसा सॉफ़्टवेयर होता है जो अपने-आप किसी लक्ष्य को हासिल करने के लिए, कार्रवाइयों की एक सीरीज़ की योजना बनाता है और उसे लागू करता है. साथ ही, अपने आस-पास होने वाले बदलावों के हिसाब से खुद को ढालने की क्षमता भी रखता है. उदाहरण के लिए, LLM पर आधारित एजेंट, प्लान जनरेट करने के लिए, बेहतर बनाने वाली लर्निंग की नीति लागू करने के बजाय, एलएलएम का इस्तेमाल कर सकता है.

एगलोमेरेटिव क्लस्टरिंग

#clustering

हैरारकी क्लस्टरिंग देखें.

गड़बड़ी की पहचान करना

आउटलायर की पहचान करने की प्रोसेस. उदाहरण के लिए, अगर किसी सुविधा का औसत 100 है और उसका स्टैंडर्ड डेविएशन 10 है, तो गड़बड़ी का पता लगाने की सुविधा को 200 की वैल्यू को संदिग्ध के तौर पर फ़्लैग करना चाहिए.

AR

ऑगमेंटेड रिएलिटी का छोटा नाम.

पीआर कर्व के नीचे का एरिया

पीआर एयूसी (पीआर कर्व के अंदर का हिस्सा) देखें.

आरओसी कर्व के नीचे का क्षेत्र

AUC (कर्व के नीचे का हिस्सा) देखें.

आर्टिफ़िशियल जनरल इंटेलिजेंस

ऐसा सिस्टम जो इंसानों के बजाय, समस्या हल करने, क्रिएटिविटी, और बदलावों के हिसाब से ढल जाने की बड़ी रेंज दिखाता है. उदाहरण के लिए, आर्टिफ़िशियल जनरल इंटेलिजेंस (एजीआई) का इस्तेमाल करने वाला कोई प्रोग्राम, टेक्स्ट का अनुवाद कर सकता है, सिम्फ़नी बना सकता है, और ऐसे गेम में बेहतरीन परफ़ॉर्म कर सकता है जिनका अभी तक आविष्कार नहीं हुआ है.

आर्टिफ़िशियल इंटेलिजेंस

#fundamentals

ऐसा प्रोग्राम या मॉडल जो मुश्किल टास्क हल कर सकता है. उदाहरण के लिए, टेक्स्ट का अनुवाद करने वाला प्रोग्राम या मॉडल या रेडियोलॉजिकल इमेज से बीमारियों की पहचान करने वाला प्रोग्राम या मॉडल, दोनों में आर्टिफ़िशियल इंटेलिजेंस का इस्तेमाल होता है.

मशीन लर्निंग, आर्टिफ़िशियल इंटेलिजेंस का एक उप-क्षेत्र है. हालांकि, हाल के वर्षों में कुछ संगठनों ने आर्टिफ़िशियल इंटेलिजेंस और मशीन लर्निंग शब्दों का इस्तेमाल एक-दूसरे के लिए करना शुरू कर दिया है.

ध्यान देना

#language

न्यूरल नेटवर्क में इस्तेमाल किया जाने वाला एक तरीका, जो किसी शब्द या शब्द के हिस्से की अहमियत बताता है. अटेंशन, अगले टोकन/शब्द का अनुमान लगाने के लिए, मॉडल को ज़रूरी जानकारी को कम करता है. आम तौर पर, ध्यान देने की सुविधा में इनपुट के सेट पर वज़न वाला योग शामिल हो सकता है. इसमें हर इनपुट के लिए वज़न का हिसाब, न्यूरल नेटवर्क के किसी दूसरे हिस्से से लगाया जाता है.

सेल्फ़-अटेंशन और मल्टी-हेड सेल्फ़-अटेंशन के बारे में भी जानें. ये ट्रांसफ़ॉर्मर के बुनियादी ब्लॉक हैं.

सेल्फ़-अटेंशन के बारे में ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में एलएलएम: लार्ज लैंग्वेज मॉडल क्या है? देखें.

एट्रिब्यूट

#fairness

feature का समानार्थी शब्द.

मशीन लर्निंग के लिए निष्पक्षता का मतलब है कि एट्रिब्यूट से अक्सर लोगों की विशेषताओं का पता चलता है.

एट्रिब्यूट सैंपलिंग

#df

डिसिज़न फ़ॉरेस्ट को ट्रेनिंग देने का एक तरीका. इसमें हर डिसिज़न ट्री, शर्त को सीखते समय, संभावित सुविधाओं के सिर्फ़ एक रैंडम सबसेट को ध्यान में रखता है. आम तौर पर, हर नोड के लिए, सुविधाओं के अलग-अलग सबसेट का सैंपल लिया जाता है. इसके उलट, एट्रिब्यूट सैंपलिंग के बिना किसी डिसीज़न ट्री को ट्रेनिंग देते समय, हर नोड के लिए सभी संभावित सुविधाओं को ध्यान में रखा जाता है.

AUC (आरओसी कर्व के नीचे का हिस्सा)

#fundamentals

0.0 से 1.0 के बीच की संख्या, बाइनरी क्लासिफ़िकेशन मॉडल की, पॉज़िटिव क्लास को नेगेटिव क्लास से अलग करने की क्षमता को दिखाती है. AUC जितना 1.0 के करीब होगा, मॉडल की क्लास को एक-दूसरे से अलग करने की क्षमता उतनी ही बेहतर होगी.

उदाहरण के लिए, यहां दी गई इमेज में क्लासिफ़ायर मॉडल दिखाया गया है, जो अच्छी कैटगरी (हरे रंग के ओवल) को खराब कैटगरी (बैंगनी रंग के रेक्टैंगल) से पूरी तरह से अलग करता है. इस मॉडल का AUC 1.0 है, जो पूरी तरह से सही नहीं है:

एक तरफ़ आठ पॉज़िटिव उदाहरण और दूसरी तरफ़ नौ नेगेटिव उदाहरण वाली संख्या रेखा.

इसके उलट, नीचे दी गई इमेज में, क्लासिफ़ायर मॉडल के नतीजे दिखाए गए हैं. इस मॉडल ने रैंडम नतीजे जनरेट किए थे. इस मॉडल का AUC 0.5 है:

एक नंबर लाइन, जिसमें छह पॉज़िटिव और छह नेगेटिव उदाहरण हैं.
          उदाहरणों का क्रम इस तरह है: पॉज़िटिव, नेगेटिव,
          पॉज़िटिव, नेगेटिव, पॉज़िटिव, नेगेटिव, पॉज़िटिव, नेगेटिव, पॉज़िटिव
          नेगेटिव, पॉज़िटिव, नेगेटिव.

हां, पिछले मॉडल का AUC 0.0 नहीं, बल्कि 0.5 है.

ज़्यादातर मॉडल, इन दोनों चरम स्थितियों के बीच में होते हैं. उदाहरण के लिए, यहां दिया गया मॉडल, सकारात्मक और नकारात्मक नतीजों को कुछ हद तक अलग करता है. इसलिए, इसका AUC 0.5 से 1.0 के बीच है:

एक नंबर लाइन, जिसमें छह पॉज़िटिव और छह नेगेटिव उदाहरण हैं.
          उदाहरणों का क्रम यह है: नेगेटिव, नेगेटिव, नेगेटिव, नेगेटिव,
          पॉज़िटिव, नेगेटिव, पॉज़िटिव, पॉज़िटिव, नेगेटिव, पॉज़िटिव, पॉज़िटिव,
          पॉज़िटिव.

AUC, क्लासिफ़िकेशन थ्रेशोल्ड के लिए सेट की गई किसी भी वैल्यू को अनदेखा करता है. इसके बजाय, एयूसी, कैटगरी में बांटने की सभी संभावित सीमाओं को ध्यान में रखता है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में क्लासिफ़िकेशन: आरओसी और AUC देखें.

संवर्धित वास्तविकता

#image

यह एक ऐसी टेक्नोलॉजी है जो कंप्यूटर से जनरेट की गई इमेज को, उपयोगकर्ता के आस-पास मौजूद असली दुनिया के व्यू पर सुपरइंपोज़ करती है. इससे, उपयोगकर्ता को कंपोज़िट व्यू मिलता है.

ऑटोएन्कोडर

#language
#image

यह ऐसा सिस्टम है जो इनपुट से सबसे ज़रूरी जानकारी निकालना सीखता है. ऑटोएन्कोडर, एन्कोडर और डिकोडर का कॉम्बिनेशन होते हैं. ऑटोएन्कोडर, दो चरणों वाली इस प्रोसेस पर निर्भर करते हैं:

  1. एन्कोडर, इनपुट को आम तौर पर कम डाइमेंशन वाले (इंटरमीडिएट) और लॉस वाले फ़ॉर्मैट में मैप करता है.
  2. डिकोडर, कम डाइमेंशन वाले फ़ॉर्मैट को ओरिजनल ज़्यादा डाइमेंशन वाले इनपुट फ़ॉर्मैट में मैप करके, ओरिजनल इनपुट का लॉस वाला वर्शन बनाता है.

ऑटोएन्कोडर को एंड-टू-एंड ट्रेनिंग दी जाती है. इसके लिए, डिकोडर, एन्कोडर के इंटरमीडिएट फ़ॉर्मैट से ओरिजनल इनपुट को फिर से बनाने की कोशिश करता है. इंटरमीडिएट फ़ॉर्मैट, ओरिजनल फ़ॉर्मैट से छोटा (कम डाइमेंशन वाला) होता है. इसलिए, ऑटोएन्कोडर को यह सीखना पड़ता है कि इनपुट में कौनसी जानकारी ज़रूरी है. साथ ही, आउटपुट, इनपुट से पूरी तरह मेल नहीं खाएगा.

उदाहरण के लिए:

  • अगर इनपुट डेटा कोई ग्राफ़िक है, तो नॉन-एग्ज़ैक्ट कॉपी, ओरिजनल ग्राफ़िक से मिलती-जुलती होगी, लेकिन उसमें कुछ बदलाव किया गया होगा. ऐसा हो सकता है कि एआई की मदद से बनाई गई कॉपी, ओरिजनल ग्राफ़िक से ग़ैर-ज़रूरी चीज़ों को हटा दे या कुछ पिक्सल जोड़ दे.
  • अगर इनपुट डेटा टेक्स्ट है, तो ऑटोएन्कोडर नया टेक्स्ट जनरेट करेगा. यह टेक्स्ट, ओरिजनल टेक्स्ट से मिलता-जुलता होगा, लेकिन एक जैसा नहीं होगा.

वैरिएशनल ऑटोएन्कोडर भी देखें.

अपने-आप होने वाला आकलन

#language
#generativeAI

मॉडल के आउटपुट की क्वालिटी का आकलन करने के लिए, सॉफ़्टवेयर का इस्तेमाल करना.

जब मॉडल का आउटपुट आसान होता है, तो कोई स्क्रिप्ट या प्रोग्राम, मॉडल के आउटपुट की तुलना गोल्डन रिस्पॉन्स से कर सकता है. इस तरह के अपने-आप होने वाले आकलन को कभी-कभी प्रोग्रामैटिक आकलन भी कहा जाता है. प्रोग्राम के आधार पर आकलन करने के लिए, ROUGE या BLEU जैसी मेट्रिक का इस्तेमाल अक्सर किया जाता है.

जब मॉडल का आउटपुट जटिल होता है या उसमें कोई एक सही जवाब नहीं होता, तो ऑटोरेटर नाम का एक अलग एमएल प्रोग्राम, अपने-आप आकलन करता है.

मैन्युअल तरीके से किए गए आकलन के साथ तुलना करें.

ऑटोमेशन बायस

#fairness

जब फ़ैसला लेने वाला व्यक्ति, ऑटोमेशन के बिना दी गई जानकारी के बजाय, ऑटोमेटेड सिस्टम से मिले सुझावों को प्राथमिकता देता है. भले ही, ऑटोमेटेड सिस्टम से फ़ैसला लेने में गड़बड़ियां होती हों.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में निष्पक्षता: पक्षपात के टाइप देखें.

AutoML

मशीन लर्निंग के मॉडल बनाने के लिए, अपने-आप काम करने वाली कोई भी प्रोसेस. AutoML, अपने-आप ये काम कर सकता है:

ऑटोमेटेड मशीन लर्निंग, डेटा साइंटिस्ट के लिए फ़ायदेमंद है. इससे उन्हें मशीन लर्निंग पाइपलाइन बनाने में समय और मेहनत बचाने में मदद मिलती है. साथ ही, इससे अनुमान की सटीकता भी बढ़ती है. यह उन लोगों के लिए भी फ़ायदेमंद है जो मशीन लर्निंग के विशेषज्ञ नहीं हैं. इससे वे मशीन लर्निंग से जुड़े मुश्किल कामों को आसानी से कर पाते हैं.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में ऑटोमेटेड मशीन लर्निंग (AutoML) देखें.

ऑटोरेटर का आकलन

#language
#generativeAI
जनरेटिव एआई मॉडल के आउटपुट की क्वालिटी का आकलन करने के लिए, एक हाइब्रिड मशीन. इसमें मैन्युअल तरीके से की गई समीक्षा और ऑटोमेटेड तरीके से की गई समीक्षा, दोनों का इस्तेमाल किया जाता है. ऑटोरेटर एक ऐसा एमएल मॉडल है जिसे मैन्युअल तरीके से किए गए आकलन से मिले डेटा पर ट्रेन किया जाता है. आम तौर पर, अपने-आप रेटिंग देने वाला सिस्टम, कॉन्टेंट की समीक्षा करने वाले व्यक्ति की नकल करता है.

पहले से बने ऑटोरेटर उपलब्ध हैं, लेकिन सबसे अच्छे ऑटोरेटर, खास तौर पर उस टास्क के लिए बेहतर बनाए जाते हैं जिसका आकलन किया जा रहा है.

ऑटो-रिग्रेसिव मॉडल

#language
#image
#generativeAI

ऐसा मॉडल जो अपने पिछले अनुमानों के आधार पर अनुमान लगाता है. उदाहरण के लिए, अपने-आप कम होने वाले भाषा मॉडल, पहले से अनुमानित टोकन के आधार पर अगले टोकन का अनुमान लगाते हैं. ट्रांसफ़ॉर्मर पर आधारित सभी लार्ज लैंग्वेज मॉडल, अपने-आप रिग्रेसिव होते हैं.

इसके उलट, GAN पर आधारित इमेज मॉडल आम तौर पर अपने-आप रिग्रेसिव नहीं होते, क्योंकि ये एक फ़ॉरवर्ड-पास में इमेज जनरेट करते हैं, न कि चरणों में बार-बार. हालांकि, इमेज जनरेट करने के कुछ मॉडल अपने-आप रिग्रेसिव होते हैं, क्योंकि ये चरणों में इमेज जनरेट करते हैं.

सहायक लॉस

लॉस फ़ंक्शन—जिसका इस्तेमाल न्यूरल नेटवर्क मॉडल के मुख्य लॉस फ़ंक्शन के साथ किया जाता है. यह शुरुआती दोहरावों के दौरान, वज़न को बेतरतीब तरीके से शुरू करने पर ट्रेनिंग को तेज़ करने में मदद करता है.

सहायक लॉस फ़ंक्शन, पहले की लेयर में असरदार ग्रेडिएंट को पुश करते हैं. इससे वैनिशिंग ग्रेडिएंट की समस्या को हल करके, ट्रेनिंग के दौरान कंसीवर्जेंस को आसान बनाया जाता है.

k पर औसत प्रीसिज़न

#language

किसी एक प्रॉम्प्ट पर मॉडल की परफ़ॉर्मेंस की खास जानकारी देने वाली मेट्रिक. यह रैंक वाले नतीजे जनरेट करती है, जैसे कि किताब के सुझावों की नंबर वाली सूची. k पर औसत सटीक नतीजा, हर काम के नतीजे के लिए, k पर सटीक नतीजा वैल्यू का औसत होता है. इसलिए, k पर औसत सटीक नतीजों का फ़ॉर्मूला यह है:

\[{\text{average precision at k}} = \frac{1}{n} \sum_{i=1}^n {\text{precision at k for each relevant item} } \]

कहां:

  • \(n\) , सूची में मौजूद काम के आइटम की संख्या है.

k पर रीकॉल करें के साथ तुलना करें.

ऐक्सिस के साथ अलाइन की गई शर्त

#df

फ़ैसला लेने वाले ट्री में, ऐसी शर्त जिसमें सिर्फ़ एक फ़ीचर शामिल हो. उदाहरण के लिए, अगर area कोई सुविधा है, तो अक्ष के साथ अलाइन की गई शर्त यह है:

area > 200

तिरछी स्थिति के साथ कंट्रास्ट करें.

B

बैकप्रोपगेशन

#fundamentals

यह एक ऐसा एल्गोरिदम है जो न्यूरल नेटवर्क में ग्रेडिएंट डिसेंट लागू करता है.

किसी न्यूरल नेटवर्क को ट्रेनिंग देने के लिए, दो पास वाले इस साइकल के कई iterations की ज़रूरत होती है:

  1. फ़ॉरवर्ड पास के दौरान, सिस्टम उदाहरणों के बैच को प्रोसेस करता है, ताकि अनुमान(अनुमान) मिल सके. सिस्टम हर अनुमान की तुलना हर लेबल वैल्यू से करता है. उदाहरण के लिए, अनुमान और लेबल वैल्यू के बीच का अंतर, लोस है. सिस्टम, मौजूदा बैच के कुल नुकसान का हिसाब लगाने के लिए, सभी उदाहरणों के नुकसान को इकट्ठा करता है.
  2. बैकवर्ड पास (बैकप्रोपगेशन) के दौरान, सिस्टम सभी हाइडन लेयर में मौजूद सभी न्यूरॉन के वेट में बदलाव करके, लॉस को कम करता है.

आम तौर पर, न्यूरल नेटवर्क में कई हिडन लेयर होती हैं और हर लेयर में कई न्यूरॉन होते हैं. उनमें से हर न्यूरॉन, कुल नुकसान में अलग-अलग तरीके से योगदान देता है. बैकप्रोपगेशन से यह तय होता है कि किसी खास न्यूरॉन पर लागू किए गए वेट को बढ़ाना है या घटाना है.

लर्निंग रेट एक मल्टीप्लायर है, जो यह कंट्रोल करता है कि हर बैकवर्ड पास, हर वेट को कितनी हद तक बढ़ाता या घटाता है. ज़्यादा लर्निंग रेट से, हर वेट में कम लर्निंग रेट की तुलना में ज़्यादा बढ़ोतरी या गिरावट आएगी.

कैलकुलस के हिसाब से, बैकप्रोपगेशन चेन नियम को लागू करता है. इसका मतलब है कि बैकप्रोपगेशन, हर पैरामीटर के हिसाब से गड़बड़ी के पार्शियल डेरिवेटिव का हिसाब लगाता है.

कई साल पहले, एमएल के विशेषज्ञों को बैकप्रोपगेशन लागू करने के लिए कोड लिखना पड़ता था. Keras जैसे आधुनिक एमएल एपीआई, अब आपके लिए बैकप्रोपगेशन लागू करते हैं. वाह!

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में न्यूरल नेटवर्क देखें.

बैगिंग

#df

एंसेंबल को ट्रेन करने का एक तरीका, जिसमें हर कॉम्पोनेंट मॉडल, ट्रेनिंग के उदाहरणों के किसी रैंडम सबसेट पर ट्रेन करता है. यह सबसेट, रिप्लेसमेंट की मदद से सैंपल किया जाता है. उदाहरण के लिए, रैंडम फ़ॉरेस्ट, बैगिंग की मदद से ट्रेन किए गए डिसिज़न ट्री का कलेक्शन होता है.

bagging शब्द, bootstrap aggregating का छोटा रूप है.

ज़्यादा जानकारी के लिए, डिसीज़न फ़ॉरेस्ट कोर्स में रैंडम फ़ॉरेस्ट देखें.

शब्दों का बैग

#language

किसी वाक्यांश या पैसेज में मौजूद शब्दों का क्रम से कोई लेना-देना नहीं होता. उदाहरण के लिए, शब्दों का बैग, यहां दिए गए तीन वाक्यांशों को एक जैसा दिखाता है:

  • कुत्ता कूदता है
  • कुत्ता कूदता है
  • कुत्ता

हर शब्द को स्पैस वेक्टर में इंडेक्स से मैप किया जाता है. इसमें वेक्टर में, शब्दावली के हर शब्द का इंडेक्स होता है. उदाहरण के लिए, कुत्ता कूदता है वाक्यांश को एक फ़ीचर वेक्टर में मैप किया जाता है. इसमें कुत्ता, कूदता है, और शब्दों के तीन इंडेक्स में, शून्य से ज़्यादा वैल्यू होती हैं. शून्य से ज़्यादा की वैल्यू इनमें से कोई भी हो सकती है:

  • किसी शब्द की मौजूदगी दिखाने के लिए 1.
  • बैग में किसी शब्द के दिखने की संख्या. उदाहरण के लिए, अगर वाक्यांश मारून रंग का कुत्ता, मारून रंग के बालों वाला कुत्ता है है, तो मारून और कुत्ता, दोनों को 2 के तौर पर दिखाया जाएगा. वहीं, दूसरे शब्दों को 1 के तौर पर दिखाया जाएगा.
  • कोई दूसरी वैल्यू, जैसे कि बैग में किसी शब्द के दिखने की संख्या के लॉगरिदम.

आधारभूत

यह एक ऐसा मॉडल है जिसका इस्तेमाल, किसी दूसरे मॉडल (आम तौर पर, ज़्यादा जटिल मॉडल) की परफ़ॉर्मेंस की तुलना करने के लिए, रेफ़रंस पॉइंट के तौर पर किया जाता है. उदाहरण के लिए, लॉजिस्टिक रिग्रेशन मॉडल, डीप मॉडल के लिए अच्छे बेसलाइन के तौर पर काम कर सकता है.

किसी खास समस्या के लिए, बेसलाइन से मॉडल डेवलपर को यह तय करने में मदद मिलती है कि नए मॉडल को कम से कम कितनी परफ़ॉर्मेंस हासिल करनी चाहिए, ताकि वह काम का हो सके.

बैच

#fundamentals

एक ट्रेनिंग के इटरेशन में इस्तेमाल किए गए उदाहरणों का सेट. बैच का साइज़, किसी बैच में उदाहरणों की संख्या तय करता है.

बैच और इक्वोक के बीच के संबंध के बारे में जानने के लिए, इक्वोक देखें.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में लीनियर रिग्रेशन: हाइपरपैरामीटर देखें.

एक साथ कई अनुमान लगाना

#TensorFlow
#GoogleCloud

बिना लेबल वाले कई उदाहरणों के आधार पर, अनुमान नतीजे निकालने की प्रोसेस. इन उदाहरणों को छोटे सबसेट ("बैच") में बांटा जाता है.

एक साथ कई अनुमान लगाने की सुविधा, ऐक्सेलरेटर चिप की पैरलल प्रोसेसिंग की सुविधाओं का फ़ायदा ले सकती है. इसका मतलब है कि एक से ज़्यादा ऐक्सेलरेटर, एक साथ लेबल न किए गए उदाहरणों के अलग-अलग बैच के आधार पर अनुमान लगा सकते हैं. इससे हर सेकंड में अनुमान लगाने की संख्या काफ़ी बढ़ जाती है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में प्रोडक्शन एमएल सिस्टम: स्टैटिक बनाम डाइनैमिक अनुमानी देखें.

बैच नॉर्मलाइज़ेशन

हाइडन लेयर में, ऐक्टिवेशन फ़ंक्शन के इनपुट या आउटपुट को नॉर्मलाइज़ करना. बैच नॉर्मलाइज़ेशन से ये फ़ायदे मिल सकते हैं:

बैच का आकार

#fundamentals

बैच में उदाहरणों की संख्या. उदाहरण के लिए, अगर बैच साइज़ 100 है, तो मॉडल हर इटरेशन में 100 उदाहरणों को प्रोसेस करता है.

बैच के साइज़ से जुड़ी लोकप्रिय रणनीतियां यहां दी गई हैं:

  • स्टोकास्टिक ग्रेडिएंट डिसेंट (एसजीडी), जिसमें बैच साइज़ 1 है.
  • पूरा बैच, जिसमें बैच का साइज़ पूरे ट्रेनिंग सेट में मौजूद उदाहरणों की संख्या होता है. उदाहरण के लिए, अगर ट्रेनिंग सेट में एक करोड़ उदाहरण हैं, तो एक करोड़ उदाहरणों का एक बैच बन जाएगा. आम तौर पर, पूरा बैच एक खराब रणनीति होती है.
  • मिनी-बैच, जिसमें आम तौर पर बैच का साइज़ 10 से 1,000 के बीच होता है. आम तौर पर, छोटा बैच सबसे असरदार रणनीति होती है.

ज़्यादा जानकारी के लिए, ये देखें:

बेज़ियन न्यूरल नेटवर्क

संभावित न्यूरल नेटवर्क, जो वेट और आउटपुट में अनिश्चितता का हिसाब लगाता है. स्टैंडर्ड न्यूरल नेटवर्क रेग्रेशन मॉडल, आम तौर पर स्केलर वैल्यू का अनुमान लगाता है. उदाहरण के लिए, स्टैंडर्ड मॉडल किसी घर की कीमत 8,53,000 रुपये का अनुमान लगाता है. इसके उलट, बेयसियन न्यूरल नेटवर्क, वैल्यू के डिस्ट्रिब्यूशन का अनुमान लगाता है. उदाहरण के लिए, बेयसियन मॉडल, घर की कीमत 8,53,000 और स्टैंडर्ड डेविएशन 67,200 का अनुमान लगाता है.

बेज़ियन न्यूरल नेटवर्क, वेट और अनुमान में अनिश्चितताओं का हिसाब लगाने के लिए, बेज़ थ्योरम पर निर्भर करता है. जब अनिश्चितता को मेज़र करना ज़रूरी हो, तब बेयसियन नेटवर्क का इस्तेमाल किया जा सकता है. जैसे, दवाओं से जुड़े मॉडल में. बायेसियन न्यूरल नेटवर्क, ओवरफ़िटिंग को रोकने में भी मदद कर सकते हैं.

बेज़ियन ऑप्टिमाइज़ेशन

संभावित रिग्रेशन मॉडल की एक तकनीक, जो गणना के हिसाब से महंगे ऑब्जेक्टिव फ़ंक्शन को ऑप्टिमाइज़ करने के लिए, एक ऐसे सरोगेट को ऑप्टिमाइज़ करती है जो बेज़ियन लर्निंग टेक्नोलॉजी का इस्तेमाल करके अनिश्चितता का आकलन करता है. बेयसियन ऑप्टिमाइज़ेशन की प्रोसेस बहुत महंगी होती है. इसलिए, आम तौर पर इसका इस्तेमाल उन टास्क को ऑप्टिमाइज़ करने के लिए किया जाता है जिनका आकलन करना महंगा होता है और जिनमें पैरामीटर की संख्या कम होती है. जैसे, हाइपरपैरामीटर चुनना.

बेलमैन समीकरण

#rl

रिनफ़ोर्समेंट लर्निंग में, ऑप्टिमाइज़ की गई Q-फ़ंक्शन से यह पहचान पूरी होती है:

\[Q(s, a) = r(s, a) + \gamma \mathbb{E}_{s'|s,a} \max_{a'} Q(s', a')\]

रीइनफ़ोर्समेंट लर्निंग एल्गोरिदम, इस पहचान को लागू करके, अपडेट करने के इस नियम की मदद से क्यू-लर्निंग बनाते हैं:

\[Q(s,a) \gets Q(s,a) + \alpha \left[r(s,a) + \gamma \displaystyle\max_{\substack{a_1}} Q(s',a') - Q(s,a) \right] \]

रीइनफ़ोर्समेंट लर्निंग के अलावा, बेलमैन समीकरण का इस्तेमाल डायनैमिक प्रोग्रामिंग में भी किया जाता है. बेलमैन समीकरण के लिए Wikipedia पर दी गई जानकारी देखें.

BERT (बाईडायरेक्शनल एन्कोडर रिप्रज़ेंटेशन्स फ़्रॉम ट्रांसफ़ॉर्मर्स)

#language

टेक्स्ट के प्रज़ेंटेशन के लिए मॉडल आर्किटेक्चर. ट्रेन किया गया BERT मॉडल, टेक्स्ट की कैटगरी तय करने या एमएल के अन्य टास्क के लिए, बड़े मॉडल का हिस्सा बन सकता है.

BERT की ये विशेषताएं हैं:

BERT के वैरिएंट में ये शामिल हैं:

  • ALBERT, जो A Light BERT का छोटा नाम है.
  • LaBSE.

BERT के बारे में खास जानकारी पाने के लिए, ओपन सोर्स BERT: नेचुरल लैंग्वेज प्रोसेसिंग के लिए सबसे बेहतर प्री-ट्रेनिंग देखें.

पक्षपात (नैतिकता/निष्पक्षता)

#fairness
#fundamentals

1. किसी चीज़, व्यक्ति या ग्रुप के बारे में गलत धारणा, पूर्वाग्रह या किसी के मुकाबले किसी दूसरे के पक्ष में पक्षपात करना. इन पूर्वाग्रहों का असर, डेटा इकट्ठा करने और उसका विश्लेषण करने, सिस्टम के डिज़ाइन, और उपयोगकर्ताओं के सिस्टम के साथ इंटरैक्ट करने के तरीके पर पड़ सकता है. इस तरह के भेदभाव के फ़ॉर्म में ये शामिल हैं:

2. सैंपलिंग या रिपोर्टिंग की प्रोसेस की वजह से, सिस्टम में हुई गड़बड़ी. इस तरह के भेदभाव के फ़ॉर्म में ये शामिल हैं:

इसे मशीन लर्निंग मॉडल में मौजूद बायस या अनुमान के लिए बायस के साथ न जोड़ें.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में निष्पक्षता: पक्षपात के टाइप देखें.

बायस (गणित) या बायस शब्द

#fundamentals

किसी ऑरिजिन से इंटरसेप्ट या ऑफ़सेट. बायस, मशीन लर्निंग मॉडल में एक पैरामीटर होता है. इसका चिह्न इनमें से किसी एक के तौर पर होता है:

  • b
  • w0

उदाहरण के लिए, नीचे दिए गए फ़ॉर्मूला में बायस, b है:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

किसी सामान्य दो-आयामी रेखा में, बायस का मतलब सिर्फ़ "y-इंटरसेप्ट" होता है. उदाहरण के लिए, नीचे दिए गए इलस्ट्रेशन में लाइन का बायस 2 है.

0.5 की स्लोप और 2 के बायस (y-इंटरसेप्ट) वाली लाइन का प्लॉट.

बायस मौजूद होता है, क्योंकि सभी मॉडल ऑरिजिन (0,0) से शुरू नहीं होते. उदाहरण के लिए, मान लें कि किसी मनोरंजन पार्क में प्रवेश करने के लिए 2 यूरो और हर घंटे के लिए 0.5 यूरो का शुल्क लिया जाता है. इसलिए, कुल कीमत को मैप करने वाले मॉडल में दो का पूर्वाग्रह है, क्योंकि सबसे कम कीमत दो यूरो है.

पक्षपात को नैतिकता और निष्पक्षता में पक्षपात या अनुमान में पक्षपात के साथ नहीं जोड़ा जाना चाहिए.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में लीनियर रिग्रेशन देखें.

दोनों तरफ़ ले जाया जा सकने वाला

#language

इस शब्द का इस्तेमाल, ऐसे सिस्टम के बारे में बताने के लिए किया जाता है जो टेक्स्ट के टारगेट सेक्शन से पहले और बाद के टेक्स्ट का आकलन करता है. इसके उलट, एकतरफ़ा सिस्टम सिर्फ़ उस टेक्स्ट का आकलन करता है जो टेक्स्ट के टारगेट सेक्शन से पहले आता है.

उदाहरण के लिए, मास्क किए गए भाषा मॉडल पर विचार करें. इसे नीचे दिए गए सवाल में, अंडरलाइन किए गए शब्द या शब्दों की संभावनाओं का पता लगाना होगा:

आपके पास _____ क्या है?

एकतरफ़ा भाषा मॉडल को अपनी संभावनाओं को सिर्फ़ "क्या", "है", और "वह" शब्दों से मिले कॉन्टेक्स्ट के आधार पर तय करना होगा. इसके उलट, दोतरफ़ा भाषा मॉडल "साथ" और "आप" से भी संदर्भ हासिल कर सकता है, जिससे मॉडल को बेहतर अनुमान जनरेट करने में मदद मिल सकती है.

द्विभाषी लैंग्वेज मॉडल

#language

यह एक भाषा मॉडल है, जो यह संभावना तय करता है कि कोई दिया गया टोकन, टेक्स्ट के किसी हिस्से में मौजूद है या नहीं. यह संभावना, पहले और बाद में मौजूद टेक्स्ट के आधार पर तय की जाती है.

bigram

#seq
#language

N-ग्राम, जिसमें N=2 है.

बाइनरी क्लासिफ़िकेशन

#fundamentals

क्लासिफ़िकेशन टास्क का एक टाइप, जो एक-दूसरे से अलग दो क्लास में से किसी एक का अनुमान लगाता है:

उदाहरण के लिए, यहां दिए गए दो मशीन लर्निंग मॉडल, दोनों ही बिनेरी क्लासिफ़िकेशन करते हैं:

  • यह एक मॉडल है, जो यह तय करता है कि ईमेल मैसेज स्पैम (पॉज़िटिव क्लास) हैं या स्पैम नहीं (नेगेटिव क्लास).
  • यह एक ऐसा मॉडल है जो मेडिकल लक्षणों का आकलन करके यह तय करता है कि किसी व्यक्ति को कोई खास बीमारी (पॉज़िटिव क्लास) है या नहीं (नेगेटिव क्लास).

मल्टी-क्लास क्लासिफ़िकेशन के साथ तुलना करें.

लॉजिस्टिक रिग्रेशन और क्लासिफ़िकेशन थ्रेशोल्ड भी देखें.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में क्लासिफ़िकेशन देखें.

बाइनरी शर्त

#df

फ़ैसला लेने वाले ट्री में, ऐसी शर्त जो सिर्फ़ दो संभावित नतीजे देती है. आम तौर पर, ये नतीजे हां या नहीं होते हैं. उदाहरण के लिए, नीचे दी गई शर्त बाइनरी है:

temperature >= 100

नॉन-बाइनरी स्थिति के साथ तुलना करें.

ज़्यादा जानकारी के लिए, डिसीज़न फ़ॉरेस्ट कोर्स में शर्तों के टाइप देखें.

बाइनिंग

बकेट के लिए समानार्थी शब्द.

BLEU (Bilingual Evaluation Understudy)

#language

मशीन से अनुवाद का आकलन करने के लिए, 0.0 से 1.0 के बीच की मेट्रिक. उदाहरण के लिए, स्पैनिश से जैपनीज़ में अनुवाद.

स्कोर का हिसाब लगाने के लिए, आम तौर पर BLEU, किसी एमएल मॉडल के अनुवाद (जनरेट किया गया टेक्स्ट) की तुलना, किसी विशेषज्ञ के अनुवाद (रेफ़रंस टेक्स्ट) से करता है. जनरेट किए गए टेक्स्ट और रेफ़रंस टेक्स्ट में एन-ग्राम के मैच होने की डिग्री से, BLEU स्कोर तय होता है.

इस मेट्रिक के बारे में मूल पेपर, BLEU: मशीन से अनुवाद करने की सुविधा का अपने-आप आकलन करने का तरीका है.

BLEURT भी देखें.

BLEURT (Bilingual Evaluation Understudy from Transformers)

#language

एक भाषा से दूसरी भाषा में किए गए मशीन से अनुवाद का आकलन करने वाली मेट्रिक. खास तौर पर, अंग्रेज़ी से और अंग्रेज़ी में किए गए अनुवाद का आकलन करने वाली मेट्रिक.

अंग्रेज़ी से अनुवाद करने और उसमें अनुवाद करने के लिए, BLEURT, BLEU की तुलना में, इंसानों की रेटिंग के ज़्यादा करीब होता है. BLEU के उलट, BLEURT में सेमैनटिक (मतलब) मिलती-जुलती चीज़ों पर ज़ोर दिया जाता है. साथ ही, इसमें पैराफ़्रेज़िंग की सुविधा भी शामिल होती है.

BLEURT, पहले से ट्रेन किए गए लार्ज लैंग्वेज मॉडल (सटीक तौर पर, BERT) पर आधारित है. इसके बाद, अनुवादकों के टेक्स्ट के आधार पर, इसे बेहतर बनाया जाता है.

इस मेट्रिक के बारे में मूल पेपर, BLEURT: Learning Robust Metrics for Text Generation है.

बूस्टिंग

मशीन लर्निंग की एक ऐसी तकनीक जो बार-बार, आसान और ज़्यादा सटीक न होने वाले क्लासिफ़ायर (जिन्हें "कमज़ोर" क्लासिफ़ायर कहा जाता है) के सेट को ज़्यादा सटीक क्लासिफ़ायर (एक "मज़बूत" क्लासिफ़ायर) में जोड़ती है. इसके लिए, उन उदाहरणों को ज़्यादा अहमियत दी जाती है जिन्हें मॉडल फ़िलहाल गलत कैटगरी में डाल रहा है.

ज़्यादा जानकारी के लिए, डिसीज़न फ़ॉरेस्ट कोर्स में ग्रेडिएंट बूस्ड डिसीज़न ट्री? देखें.

बाउंडिंग बॉक्स

#image

किसी इमेज में, दिलचस्पी के किसी हिस्से के आस-पास मौजूद रेक्टैंगल के (x, y) निर्देशांक. जैसे, नीचे दी गई इमेज में कुत्ता.

सोफ़े पर बैठे कुत्ते की फ़ोटो. कुत्ते के शरीर के चारों ओर एक हरे रंग का बॉउंडिंग बॉक्स है. इसके सबसे ऊपर बाएं कोने के निर्देशांक (275, 1271) और सबसे नीचे दाएं कोने के निर्देशांक (2954, 2761) हैं

ब्रॉडकास्ट

मैट्रिक के गणितीय ऑपरेशन में ऑपरेंड के आकार को, उस ऑपरेशन के साथ काम करने वाले डाइमेंशन में बड़ा करना. उदाहरण के लिए, रेखीय बीजगणित के लिए ज़रूरी है कि मैट्रिक जोड़ने के ऑपरेशन में, दोनों ऑपरेंड के डाइमेंशन एक जैसे हों. इसलिए, लंबाई n वाले वेक्टर में आकार (m, n) वाली मैट्रिक्स नहीं जोड़ी जा सकती. ब्रॉडकास्टिंग की मदद से, इस ऑपरेशन को चालू किया जा सकता है. इसके लिए, लंबाई n वाले वेक्टर को आकार (m, n) वाले मैट्रिक्स में बदला जाता है. इसके लिए, हर कॉलम में एक जैसी वैल्यू को दोहराया जाता है.

उदाहरण के लिए, नीचे दी गई परिभाषाओं के मुताबिक, लीनियर ऐल्जेब्रा में A+B का इस्तेमाल नहीं किया जा सकता, क्योंकि A और B के डाइमेंशन अलग-अलग हैं:

A = [[7, 10, 4],
     [13, 5, 9]]
B = [2]

हालांकि, ब्रॉडकास्टिंग की मदद से, A+B ऑपरेशन को चालू किया जा सकता है. इसके लिए, B को इनमें बदला जाता है:

 [[2, 2, 2],
  [2, 2, 2]]

इसलिए, A+B अब मान्य ऑपरेशन है:

[[7, 10, 4],  +  [[2, 2, 2],  =  [[ 9, 12, 6],
 [13, 5, 9]]      [2, 2, 2]]      [15, 7, 11]]

ज़्यादा जानकारी के लिए, NumPy में ब्रॉडकास्ट करने के बारे में यहां दिया गया ब्यौरा देखें.

बकेट

#fundamentals

एक फ़ीचर को कई बाइनरी फ़ीचर में बदलना, जिन्हें आम तौर पर वैल्यू रेंज के आधार पर बकेट या बिन कहा जाता है. आम तौर पर, वीडियो को काटने की सुविधा लगातार उपलब्ध रहती है.

उदाहरण के लिए, तापमान को एक ही फ़्लोटिंग-पॉइंट फ़ीचर के तौर पर दिखाने के बजाय, तापमान की रेंज को अलग-अलग बकेट में बांटा जा सकता है, जैसे:

  • 10 डिग्री सेल्सियस से कम तापमान को "ठंडा" कैटगरी में रखा जाएगा.
  • 11 से 24 डिग्री सेल्सियस के तापमान को "उष्णकटिबंधीय" कैटगरी में रखा जाएगा.
  • 25 डिग्री सेल्सियस से ज़्यादा तापमान को "गर्म" बकेट माना जाएगा.

मॉडल, एक ही बकेट में मौजूद हर वैल्यू को एक जैसा मानेगा. उदाहरण के लिए, वैल्यू 13 और 22, दोनों ही टेंपरेट बकेट में हैं. इसलिए, मॉडल दोनों वैल्यू को एक जैसा मानता है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में न्यूमेरिकल डेटा: बाइनिंग देखें.

C

कैलिब्रेशन लेयर

अनुमान के बाद किया गया अडजस्टमेंट. आम तौर पर, यह अनुमान में मौजूद पूर्वाग्रह को ध्यान में रखकर किया जाता है. अडजस्ट किए गए अनुमान और संभावनाएं, लेबल के किसी निगरानी वाले सेट के डिस्ट्रिब्यूशन से मेल खानी चाहिए.

संभावित ग्राहक जनरेशन

#recsystems

सुझाव देने वाले सिस्टम से मिले सुझावों का शुरुआती सेट. उदाहरण के लिए, एक ऐसे किताबों के स्टोर पर विचार करें जो 1,00,000 किताबें उपलब्ध कराता है. संभावित किताबों की सूची बनाने के चरण में, किसी उपयोगकर्ता के लिए, ज़रूरत के मुताबिक किताबों की एक छोटी सूची बनाई जाती है. जैसे, 500 किताबें. हालांकि, किसी उपयोगकर्ता को 500 किताबों के सुझाव देना भी बहुत ज़्यादा है. सुझाव देने वाले सिस्टम के बाद के चरणों में, स्कोरिंग और फिर से रैंकिंग जैसी ज़्यादा खर्चीली प्रोसेस की मदद से, उन 500 सुझावों को कम कर दिया जाता है. साथ ही, उन्हें ज़्यादा काम के सुझावों के सेट में बदल दिया जाता है.

ज़्यादा जानकारी के लिए, सुझाव देने वाले सिस्टम के कोर्स में उम्मीदवारों के जनरेशन की खास जानकारी देखें.

कैंडिडेट सैंपलिंग

ट्रेनिंग के समय का ऑप्टिमाइज़ेशन, जो सभी पॉज़िटिव लेबल के लिए संभावना का हिसाब लगाता है. उदाहरण के लिए, सॉफ़्टमैक्स का इस्तेमाल करके, लेकिन सिर्फ़ नेगेटिव लेबल के किसी रैंडम सैंपल के लिए. उदाहरण के लिए, बीगल और कुत्ता लेबल वाले उदाहरण के लिए, कैंडिडेट सैंपलिंग, इनके लिए अनुमानित संभावनाओं और उनसे जुड़े लॉस टर्म का हिसाब लगाती है:

  • बीगल
  • dog
  • बाकी नेगेटिव क्लास का कोई रैंडम सबसेट (उदाहरण के लिए, बिल्ली, लौलीपॉप, फ़ेंस).

इसका मतलब है कि नेगेटिव क्लास, कम बार होने वाले नेगेटिव रिइंफ़ॉर्मेंट से तब तक सीख सकती हैं, जब तक पॉज़िटिव क्लास को हमेशा सही पॉज़िटिव रिइंफ़ॉर्मेंट मिलता रहे. यह बात, अनुभव से पता चली है.

कैंडिडेट सैंपलिंग, उन ट्रेनिंग एल्गोरिदम की तुलना में ज़्यादा बेहतर तरीके से काम करती है जो सभी नेगेटिव क्लास के लिए अनुमान का हिसाब लगाती हैं. ऐसा तब होता है, जब नेगेटिव क्लास की संख्या बहुत ज़्यादा हो.

कैटगरीकल डेटा

#fundamentals

ऐसी सुविधाएं जिनमें संभावित वैल्यू का कोई खास सेट हो. उदाहरण के लिए, traffic-light-state नाम की कैटगरी वाली किसी सुविधा पर विचार करें. इसमें इन तीन में से सिर्फ़ एक वैल्यू हो सकती है:

  • red
  • yellow
  • green

traffic-light-state को कैटगरी वाली सुविधा के तौर पर दिखाकर, कोई मॉडल ड्राइवर के व्यवहार पर red, green, और yellow के अलग-अलग असर के बारे में जान सकता है.

कैटगरी वाली सुविधाओं को कभी-कभी अलग-अलग सुविधाएं भी कहा जाता है.

संख्या वाले डेटा के साथ तुलना करें.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में कैटगरी वाले डेटा के साथ काम करना देखें.

कैज़ल लैंग्वेज मॉडल

#language

यूनीडायरेक्शनल लैंग्वेज मॉडल का समानार्थी शब्द.

भाषा मॉडलिंग में अलग-अलग दिशाओं के तरीकों की तुलना करने के लिए, दोतरफ़ा भाषा मॉडल देखें.

सेंट्रोइड

#clustering

क्लस्टर का केंद्र, k-means या k-median एल्गोरिदम से तय होता है. उदाहरण के लिए, अगर k का मान 3 है, तो k-means या k-median एल्गोरिदम तीन सेंट्राइड ढूंढता है.

ज़्यादा जानकारी के लिए, क्लस्टरिंग कोर्स में क्लस्टरिंग एल्गोरिदम देखें.

सेंट्राइड पर आधारित क्लस्टरिंग

#clustering

क्लस्टरिंग एल्गोरिदम की एक कैटगरी, जो डेटा को बिना हैरारकी वाले क्लस्टर में व्यवस्थित करती है. सेंट्राइड पर आधारित क्लस्टरिंग एल्गोरिदम में सबसे ज़्यादा इस्तेमाल किया जाने वाला एल्गोरिदम k-means है.

हियरार्किकल क्लस्टरिंग एल्गोरिदम के साथ तुलना करें.

ज़्यादा जानकारी के लिए, क्लस्टरिंग कोर्स में क्लस्टरिंग एल्गोरिदम देखें.

सिलसिलेवार तरीके से दिया जाने वाला प्रॉम्प्ट

#language
#generativeAI

प्रॉम्प्ट इंजीनियरिंग तकनीक, जिसकी मदद से लार्ज लैंग्वेज मॉडल (एलएलएम) को, अपनी वजह को सिलसिलेवार तरीके से बताने के लिए बढ़ावा दिया जाता है. उदाहरण के लिए, इस प्रॉम्प्ट पर ध्यान दें और दूसरे वाक्य पर खास ध्यान दें:

7 सेकंड में 0 से 60 मील प्रति घंटे की रफ़्तार तक पहुंचने वाली कार में, ड्राइवर को कितने जी फ़ोर्स का अनुभव होगा? जवाब में, काम की सभी गणनाएं दिखाएं.

एलएलएम का जवाब इस तरह का हो सकता है:

  • फ़िज़िक्स के फ़ॉर्मूला का क्रम दिखाएं. इसके लिए, सही जगहों पर 0, 60, और 7 वैल्यू डालें.
  • बताएं कि उसने उन फ़ॉर्मूला को क्यों चुना और अलग-अलग वैरिएबल का क्या मतलब है.

सिलसिलेवार तरीके से सवाल पूछने पर, एलएलएम को सभी गणनाएं करनी पड़ती हैं. इससे, ज़्यादा सटीक जवाब मिल सकता है. इसके अलावा, सिलसिलेवार तरीके से सवाल पूछने की सुविधा की मदद से, उपयोगकर्ता एलएलएम के चरणों की जांच कर सकता है. इससे यह पता चलता है कि जवाब सही है या नहीं.

चैट

#language
#generativeAI

आम तौर पर, लार्ज लैंग्वेज मॉडल जैसे एमएल सिस्टम के साथ हुई बातचीत का कॉन्टेंट. चैट में पिछली बातचीत (आपने क्या टाइप किया और लार्ज लैंग्वेज मॉडल ने कैसे जवाब दिया) से, चैट के अगले हिस्सों के लिए कॉन्टेक्स्ट बन जाता है.

चैटबॉट, लार्ज लैंग्वेज मॉडल का एक ऐप्लिकेशन है.

COVID-19 की जांच के लिए बनी चेकपोस्ट

ऐसा डेटा जो ट्रेनिंग के दौरान या ट्रेनिंग पूरी होने के बाद, मॉडल के पैरामीटर की स्थिति को कैप्चर करता है. उदाहरण के लिए, ट्रेनिंग के दौरान, ये काम किए जा सकते हैं:

  1. ट्रेनिंग को जान-बूझकर या कुछ गड़बड़ियों की वजह से बंद करना.
  2. चेकपॉइंट कैप्चर करें.
  3. बाद में, चेकपॉइंट को फिर से लोड करें. ऐसा, शायद किसी दूसरे हार्डवेयर पर किया जा सकता है.
  4. ट्रेनिंग को रीस्टार्ट करें.

क्लास

#fundamentals

वह कैटगरी जिससे लेबल जुड़ा हो सकता है. उदाहरण के लिए:

क्लासिफ़िकेशन मॉडल, किसी क्लास का अनुमान लगाता है. इसके उलट, रिग्रेशन मॉडल किसी क्लास के बजाय संख्या का अनुमान लगाता है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में क्लासिफ़िकेशन देखें.

क्लासिफ़िकेशन मॉडल

#fundamentals

ऐसा मॉडल जिसका अनुमान क्लास है. उदाहरण के लिए, यहां दिए गए सभी मॉडल, क्लासिफ़िकेशन मॉडल हैं:

  • ऐसा मॉडल जो इनपुट वाक्य की भाषा का अनुमान लगाता है (फ़्रेंच? स्पैनिश? इटैलियन?).
  • पेड़ की प्रजाति का अनुमान लगाने वाला मॉडल (मेपल? ओक? Baobab?).
  • ऐसा मॉडल जो किसी खास बीमारी के लिए, पॉज़िटिव या नेगेटिव क्लास का अनुमान लगाता है.

इसके उलट, रिएगर्सन मॉडल, क्लास के बजाय संख्याओं का अनुमान लगाते हैं.

आम तौर पर, क्लासिफ़िकेशन मॉडल दो तरह के होते हैं:

श्रेणी में बाँटने की सीमा

#fundamentals

बाइनरी क्लासिफ़िकेशन में, 0 से 1 के बीच की संख्या, जो लॉजिस्टिक रिग्रेशन मॉडल के रॉ आउटपुट को पॉज़िटिव क्लास या नेगेटिव क्लास के अनुमान में बदलती है. ध्यान दें कि क्लासिफ़िकेशन थ्रेशोल्ड एक ऐसी वैल्यू है जिसे कोई व्यक्ति चुनता है, न कि मॉडल ट्रेनिंग से चुनी गई वैल्यू.

लॉजिस्टिक रिग्रेशन मॉडल, 0 से 1 के बीच की रॉ वैल्यू दिखाता है. इसके बाद:

  • अगर यह रॉ वैल्यू, कैटगरी के थ्रेशोल्ड से ज़्यादा है, तो 'पॉज़िटिव क्लास' का अनुमान लगाया जाता है.
  • अगर यह रॉ वैल्यू, कैटगरी के थ्रेशोल्ड से कम है, तो नेगेटिव क्लास का अनुमान लगाया जाता है.

उदाहरण के लिए, मान लें कि क्लासिफ़िकेशन थ्रेशोल्ड 0.8 है. अगर रॉ वैल्यू 0.9 है, तो मॉडल पॉज़िटिव क्लास का अनुमान लगाता है. अगर रॉ वैल्यू 0.7 है, तो मॉडल ने नेगेटिव क्लास का अनुमान लगाया है.

क्लासिफ़िकेशन थ्रेशोल्ड चुनने से, फ़ॉल्स पॉज़िटिव और फ़ॉल्स नेगेटिव की संख्या पर काफ़ी असर पड़ता है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में थ्रेशोल्ड और भ्रम वाली मैट्रिक देखें.

क्लास-असंतुलित डेटासेट

#fundamentals

डेटा को अलग-अलग कैटगरी में बांटने से जुड़ी समस्या के लिए डेटासेट, जिसमें हर कैटगरी के लेबल की कुल संख्या काफ़ी अलग-अलग होती है. उदाहरण के लिए, एक बाइनरी क्लासिफ़िकेशन डेटासेट पर विचार करें, जिसके दो लेबल इस तरह से बांट दिए गए हैं:

  • 1,000,000 नेगेटिव लेबल
  • 10 पॉज़िटिव लेबल

नेगेटिव लेबल और पॉज़िटिव लेबल का अनुपात 1,00,000:1 है. इसलिए, यह क्लास-असंतुलित डेटासेट है.

इसके उलट, नीचे दिया गया डेटासेट क्लास के हिसाब से असंतुलित नहीं है, क्योंकि नेगेटिव लेबल के मुकाबले पॉज़िटिव लेबल का अनुपात 1 के आस-पास है:

  • 517 नेगेटिव लेबल
  • 483 पॉज़िटिव लेबल

मल्टी-क्लास डेटासेट भी क्लास के हिसाब से असंतुलित हो सकते हैं. उदाहरण के लिए, यहां दिया गया कई क्लास वाला डेटासेट भी क्लास के हिसाब से असंतुलित है, क्योंकि एक लेबल में दो अन्य लेबल की तुलना में काफ़ी ज़्यादा उदाहरण हैं:

  • क्लास "green" वाले 1,000,000 लेबल
  • क्लास "purple" वाले 200 लेबल
  • क्लास "नारंगी" वाले 350 लेबल

एन्ट्रापी, बड़ी क्लास, और छोटी क्लास भी देखें.

क्लिपिंग

#fundamentals

आउटलायर को मैनेज करने के लिए, इनमें से कोई एक या दोनों काम करें:

  • feature की वैल्यू को, तय सीमा से ज़्यादा होने पर, तय सीमा तक कम करना.
  • कम से कम थ्रेशोल्ड से कम की सुविधा की वैल्यू को उस कम से कम थ्रेशोल्ड तक बढ़ाना.

उदाहरण के लिए, मान लें कि किसी खास सुविधा के लिए, 40 से 60 की सीमा से बाहर की वैल्यू की संख्या 0.5% से कम है. इस मामले में, ये काम किए जा सकते हैं:

  • 60 (ज़्यादा से ज़्यादा थ्रेशोल्ड) से ज़्यादा की सभी वैल्यू को 60 पर क्लिप करें.
  • 40 (कम से कम थ्रेशोल्ड) से कम की सभी वैल्यू को 40 पर सेट करें.

आउटलायर मॉडल को नुकसान पहुंचा सकते हैं. कभी-कभी, ट्रेनिंग के दौरान वेट का ओवरफ़्लो हो सकता है. कुछ आउटलायर, सटीक जानकारी जैसी मेट्रिक को काफ़ी खराब कर सकते हैं. नुकसान को कम करने के लिए, क्लिपिंग एक आम तकनीक है.

ग्रेडिएंट क्लिपिंग, ट्रेनिंग के दौरान ग्रेडिएंट की वैल्यू को तय की गई रेंज में रखती है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में न्यूमेरिकल डेटा: नॉर्मलाइज़ेशन देखें.

Cloud TPU

#TensorFlow
#GoogleCloud

यह एक खास हार्डवेयर एक्सेलरेटर है, जिसे Google Cloud पर मशीन लर्निंग वर्कलोड को तेज़ करने के लिए डिज़ाइन किया गया है.

क्लस्टर

#clustering

मिलते-जुलते उदाहरणों को ग्रुप में बांटना. ऐसा खास तौर पर, बिना निगरानी वाले लर्निंग के दौरान किया जाता है. सभी उदाहरणों को ग्रुप करने के बाद, कोई व्यक्ति हर क्लस्टर के लिए अपने हिसाब से मतलब दे सकता है.

क्लस्टरिंग के कई एल्गोरिदम मौजूद हैं. उदाहरण के लिए, k-means एल्गोरिदम, उदाहरणों को सेंट्रॉइड के आस-पास होने के आधार पर क्लस्टर करता है. इसका उदाहरण नीचे दिए गए डायग्राम में दिया गया है:

दो डाइमेंशन वाला ग्राफ़, जिसमें x-ऐक्सिस को पेड़ की चौड़ाई और
          y-ऐक्सिस को पेड़ की ऊंचाई के तौर पर लेबल किया गया है. ग्राफ़ में दो
          सेंट्राइड और कई दर्जन डेटा पॉइंट हैं. डेटा पॉइंट को, एक-दूसरे के आस-पास होने के आधार पर अलग-अलग कैटगरी में बांटा जाता है. इसका मतलब है कि एक सेंट्राइड के सबसे करीब मौजूद डेटा पॉइंट को क्लस्टर 1 के तौर पर और दूसरे सेंट्राइड के सबसे करीब मौजूद डेटा पॉइंट को क्लस्टर 2 के तौर पर बांटा जाता है.

इसके बाद, कोई रिसर्चर इन क्लस्टर की समीक्षा कर सकता है. उदाहरण के लिए, क्लस्टर 1 को "छोटे पेड़" और क्लस्टर 2 को "बड़े पेड़" के तौर पर लेबल किया जा सकता है.

एक और उदाहरण के तौर पर, किसी उदाहरण के सेंटर पॉइंट से दूरी के आधार पर क्लस्टरिंग एल्गोरिदम का इस्तेमाल करें. इसका उदाहरण यहां दिया गया है:

इसमें दर्जनों डेटा पॉइंट, एक-दूसरे के केंद्र में मौजूद सर्कल में व्यवस्थित किए जाते हैं. यह बिल्कुल वैसा ही होता है जैसे डार्ट बोर्ड के बीच में मौजूद छेद. डेटा पॉइंट की सबसे अंदर वाली रिंग को क्लस्टर 1, बीच वाली रिंग को क्लस्टर 2, और सबसे बाहर वाली रिंग को क्लस्टर 3 के तौर पर बांटा जाता है.

ज़्यादा जानकारी के लिए, क्लस्टरिंग कोर्स देखें.

साथ मिलकर अडैप्ट करना

जब न्यूरल, ट्रेनिंग डेटा में पैटर्न का अनुमान लगाते हैं, तो वे पूरी तरह से नेटवर्क के व्यवहार पर भरोसा करने के बजाय, खास तौर पर दूसरे न्यूरल के आउटपुट पर भरोसा करते हैं. जब पुष्टि करने वाले डेटा में, को-अडैप्टेशन के पैटर्न मौजूद नहीं होते, तो को-अडैप्टेशन की वजह से ओवरफ़िटिंग होती है. ड्रॉपआउट रेगुलराइज़ेशन से, एक साथ अडैप्ट होने की प्रक्रिया कम हो जाती है, क्योंकि ड्रॉपआउट से यह पक्का होता है कि न्यूरॉन सिर्फ़ कुछ खास न्यूरॉन पर निर्भर न हों.

कोलैबोरेटिव फ़िल्टरिंग

#recsystems

कई अन्य उपयोगकर्ताओं की दिलचस्पी के आधार पर, किसी एक उपयोगकर्ता की दिलचस्पी के बारे में अनुमान लगाना. कोलैबोरेटिव फ़िल्टरिंग का इस्तेमाल, अक्सर सुझाव देने वाले सिस्टम में किया जाता है.

ज़्यादा जानकारी के लिए, सुझाव देने वाले सिस्टम के कोर्स में एक साथ फ़िल्टर करने की सुविधा देखें.

कॉन्सेप्ट ड्रिफ़्ट

सुविधाओं और लेबल के बीच के संबंध में बदलाव. समय के साथ, कॉन्सेप्ट ड्रिफ़्ट की वजह से मॉडल की क्वालिटी कम हो जाती है.

ट्रेनिंग के दौरान, मॉडल ट्रेनिंग सेट में मौजूद फ़ीचर और उनके लेबल के बीच के संबंध को समझता है. अगर ट्रेनिंग सेट में मौजूद लेबल, असल दुनिया के लिए अच्छे प्रॉक्सी हैं, तो मॉडल को असल दुनिया के लिए अच्छे अनुमान देने चाहिए. हालांकि, कॉन्सेप्ट ड्रिफ़्ट की वजह से, मॉडल के अनुमान समय के साथ खराब होने लगते हैं.

उदाहरण के लिए, बाइनरी क्लासिफ़िकेशन के आधार पर काम करने वाले मॉडल का इस्तेमाल करके, यह अनुमान लगाया जा सकता है कि किसी कार मॉडल की ईंधन की खपत कम है या नहीं. इसका मतलब है कि ये सुविधाएं हो सकती हैं:

  • कार का वज़न
  • इंजन कंप्रेसन
  • ट्रांसमिशन टाइप

लेबल इनमें से कोई हो:

  • ईंधन की कम खपत
  • ईंधन की खपत ज़्यादा होती है

हालांकि, "ईंधन की कम खपत करने वाली कार" का कॉन्सेप्ट लगातार बदलता रहता है. साल 1994 में कम ईंधन खर्च करने वाली के तौर पर लेबल की गई कार को साल 2024 में ज़्यादा ईंधन खर्च करने वाली के तौर पर लेबल किया जाएगा. कॉन्सेप्ट ड्रिफ़्ट की समस्या वाले मॉडल से, समय के साथ कम और कम काम के अनुमान मिलते हैं.

नॉन-स्टेशनैरिटी के साथ तुलना करें और अंतर बताएं.

शर्त

#df

फ़ैसला लेने वाले ट्री में, ऐसा कोई भी नोड जो किसी एक्सप्रेशन का आकलन करता है. उदाहरण के लिए, नीचे दिए गए फ़ैसले के पेड़ के हिस्से में दो शर्तें हैं:

दो शर्तों वाला डिसीज़न ट्री: (x > 0) और
          (y > 0).

कंडीशन को स्प्लिट या टेस्ट भी कहा जाता है.

पत्ते के साथ कंट्रास्ट की स्थिति.

यह भी देखें:

ज़्यादा जानकारी के लिए, डिसीज़न फ़ॉरेस्ट कोर्स में शर्तों के टाइप देखें.

ग़लत जानकारी देना

#language

मतिभ्रम का समानार्थी शब्द.

भ्रम की तुलना में, ग़लत जानकारी देना तकनीकी तौर पर ज़्यादा सटीक शब्द है. हालांकि, पहले हैलुसिनेशन लोकप्रिय हुआ.

कॉन्फ़िगरेशन

मॉडल को ट्रेन करने के लिए इस्तेमाल की जाने वाली शुरुआती प्रॉपर्टी वैल्यू असाइन करने की प्रोसेस. इसमें ये शामिल हैं:

मशीन लर्निंग प्रोजेक्ट में, कॉन्फ़िगरेशन को किसी खास कॉन्फ़िगरेशन फ़ाइल या कॉन्फ़िगरेशन लाइब्रेरी का इस्तेमाल करके किया जा सकता है. जैसे:

कंफ़र्मेशन बायस

#fairness

जानकारी को इस तरह से खोजना, उसका विश्लेषण करना, उसे पसंद करना, और याद रखना कि इससे पहले से मौजूद मान्यताओं या अनुमान की पुष्टि हो. मशीन लर्निंग डेवलपर, अनजाने में डेटा को इस तरह इकट्ठा या लेबल कर सकते हैं कि नतीजे पर उनके मौजूदा विश्वासों का असर पड़े. कंफ़र्मेशन बायस, अनजाने में होने वाली पक्षपात का एक फ़ॉर्म है.

एक्सपेरिमेंट करने वाले का पूर्वाग्रह, पुष्टि करने के पूर्वाग्रह का एक रूप है. इसमें, एक्सपेरिमेंट करने वाला व्यक्ति तब तक मॉडल को ट्रेनिंग देता रहता है, जब तक कि पहले से मौजूद किसी अनुमान की पुष्टि नहीं हो जाती.

कन्फ़्यूज़न मैट्रिक्स

#fundamentals

NxN टेबल, जिसमें क्लासिफ़िकेशन मॉडल के सही और गलत अनुमान की संख्या की खास जानकारी होती है. उदाहरण के लिए, बाइनरी क्लासिफ़िकेशन मॉडल के लिए, नीचे दिया गया कन्फ़्यूज़न मैट्रिक देखें:

ट्यूमर (अनुमानित) ट्यूमर नहीं (अनुमानित)
ट्यूमर (ग्राउंड ट्रूथ) 18 (TP) 1 (FN)
ट्यूमर नहीं (ग्राउंड ट्रूथ) 6 (FP) 452 (TN)

ऊपर दिया गया कन्फ़्यूज़न मैट्रिक्स, ये चीज़ें दिखाता है:

  • 19 अनुमानों में से जिनमें ग्राउंड ट्रूथ ट्यूमर था, उनमें से मॉडल ने 18 को सही कैटगरी में रखा और एक को गलत कैटगरी में रखा.
  • 458 अनुमानों में से, जिनमें ग्राउंड ट्रूथ ट्यूमर नहीं था उनमें से मॉडल ने 452 को सही कैटगरी में और 6 को गलत कैटगरी में रखा.

मल्टी-क्लास क्लासिफ़िकेशन वाली समस्या के लिए, कन्फ़्यूज़न मैट्रिक की मदद से, गलतियां होने के पैटर्न की पहचान की जा सकती है. उदाहरण के लिए, तीन क्लास वाले कई क्लास के क्लासिफ़िकेशन मॉडल के लिए, नीचे दिया गया कन्फ़्यूज़न मैट्रिक देखें. यह मॉडल, तीन अलग-अलग तरह के आइरिस (Virginica, Versicolor, और Setosa) की कैटगरी तय करता है. जब असल वैल्यू Virginica थी, तो कॉन्फ़्यूज़न मैट्रिक से पता चलता है कि मॉडल की ओर से, Setosa के मुकाबले Versicolor का अनुमान गलत तरीके से लगाने की संभावना ज़्यादा थी:

  सेटोसा (अनुमानित) वर्सिकोलर (अनुमानित) Virginica (अनुमानित)
सेटोसा (ग्राउंड ट्रूथ) 88 12 0
वर्सिकोलर (ग्राउंड ट्रूथ) 6 141 7
Virginica (ग्राउंड ट्रूथ) 2 27 109

एक और उदाहरण के तौर पर, कॉन्फ़्यूज़न मैट्रिक से पता चल सकता है कि हाथ से लिखे गए अंकों को पहचानने के लिए ट्रेन किया गया मॉडल, गलती से 4 के बजाय 9 का अनुमान लगाता है या 7 के बजाय 1 का अनुमान लगाता है.

कन्फ़्यूज़न मैट्रिक में, परफ़ॉर्मेंस की कई मेट्रिक का हिसाब लगाने के लिए ज़रूरी जानकारी होती है. इनमें प्रिसिज़न और रीकॉल शामिल हैं.

चुनावी क्षेत्र को पार्स करना

#language

किसी वाक्य को छोटे-छोटे व्याकरणिक स्ट्रक्चर ("कॉन्स्टिट्यूएंट") में बांटना. एमएल सिस्टम का बाद का हिस्सा, जैसे कि नैचुरल लैंग्वेज अंडरस्टैंडिंग मॉडल, मूल वाक्य की तुलना में कॉम्पोनेंट को ज़्यादा आसानी से पार्स कर सकता है. उदाहरण के लिए, यह वाक्य देखें:

मेरे दोस्त ने दो बिल्लियों को गोद लिया.

ज़िल्से-एवं-विधानसभा क्षेत्र के हिसाब से डेटा को अलग-अलग करने वाला टूल, इस वाक्य को इन दो हिस्सों में बांट सकता है:

  • मेरा दोस्त एक संज्ञा वाक्यांश है.
  • दो बिल्लियों को गोद लिया एक क्रिया वाक्यांश है.

इन कॉम्पोनेंट को और छोटे कॉम्पोनेंट में बांटा जा सकता है. उदाहरण के लिए, क्रिया वाक्यांश

दो बिल्लियों को गोद लिया

को इनमें बांटा जा सकता है:

  • adopted एक क्रिया है.
  • दो बिल्लियां एक और संज्ञा वाक्यांश है.

संदर्भ के हिसाब से भाषा को एम्बेड करना

#language
#generativeAI

ऐसा एम्बेड जो शब्दों और वाक्यांशों को उसी तरह "समझता" है जिस तरह किसी भाषा के मूल निवासी उसे समझते हैं. कॉन्टेक्स्ट के हिसाब से भाषा के एम्बेडमेंट, सिंटैक्स, सेमेटिक्स, और कॉन्टेक्स्ट को समझ सकते हैं.

उदाहरण के लिए, अंग्रेज़ी के शब्द cow के एम्बेड देखें. word2vec जैसे पुराने एम्बेडिंग, अंग्रेज़ी के शब्दों को इस तरह दिखा सकते हैं कि एम्बेडिंग स्पेस में गाय से बैल की दूरी, भेड़ (मादा भेड़) से बकरा (नर भेड़) या महिला से पुरुष की दूरी जैसी हो. कॉन्टेक्स्ट के हिसाब से भाषा के एम्बेडमेंट, एक कदम आगे जाकर यह पहचान सकते हैं कि अंग्रेज़ी बोलने वाले लोग कभी-कभी गाय या बैल के लिए, गाय शब्द का इस्तेमाल करते हैं.

कॉन्टेक्स्ट विंडो

#language
#generativeAI

किसी दिए गए प्रॉम्प्ट में, मॉडल कितने टोकन प्रोसेस कर सकता है. कॉन्टेक्स्ट विंडो जितनी बड़ी होगी, मॉडल उतनी ही ज़्यादा जानकारी का इस्तेमाल करके प्रॉम्प्ट के लिए बेहतर और एक जैसे जवाब दे पाएगा.

लगातार चलने वाली सुविधा

#fundamentals

फ़्लोटिंग-पॉइंट फ़ीचर, जिसमें तापमान या वज़न जैसी वैल्यू की अनलिमिटेड रेंज हो सकती है.

अलग-अलग वैल्यू वाली सुविधा के साथ तुलना करें.

आसानी से इकट्ठा किया जाने वाला सैंपल

तेज़ी से एक्सपेरिमेंट चलाने के लिए, ऐसे डेटासेट का इस्तेमाल करना जो वैज्ञानिक तरीके से इकट्ठा नहीं किया गया है. बाद में, वैज्ञानिक तरीके से इकट्ठा किए गए डेटासेट पर स्विच करना ज़रूरी है.

कन्वर्जेंस

#fundamentals

यह वह स्थिति होती है जब हर इटरेशन के साथ लॉस वैल्यू बहुत कम या बिल्कुल भी नहीं बदलती. उदाहरण के लिए, यहां दिया गया लॉस कर्व, करीब 700 बार दोहराए जाने पर कन्वर्ज़न का सुझाव देता है:

कार्टेशियन प्लॉट. X-ऐक्सिस मौजूद नहीं है. Y-ऐक्सिस, ट्रेनिंग के लैप की संख्या है. शुरुआती कुछ इटरेटेशन के दौरान, नुकसान बहुत ज़्यादा होता है, लेकिन इसके बाद यह तेज़ी से कम हो जाता है. करीब 100 बार दोहराए जाने के बाद भी, हानि कम हो रही है, लेकिन धीरे-धीरे. करीब 700 बार दोहराए जाने के बाद,
          लॉस में कोई बदलाव नहीं होता.

जब अतिरिक्त ट्रेनिंग से मॉडल बेहतर नहीं होता, तब मॉडल कंसीव हो जाता है.

डीप लर्निंग में, लॉस वैल्यू कई बार एक जैसी या करीब-करीब एक जैसी रहती हैं. ऐसा कई बार होने के बाद, आखिर में यह वैल्यू कम हो जाती है. लगातार लॉस वैल्यू की लंबी अवधि के दौरान, आपको कुछ समय के लिए कन्वर्ज़न होने का गलत एहसास हो सकता है.

एरली स्टॉपिंग भी देखें.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में मॉडल कन्वर्ज़न और लॉस कर्व देखें.

कॉनवेक्स फ़ंक्शन

ऐसा फ़ंक्शन जिसका ग्राफ़ के ऊपर मौजूद क्षेत्र, कॉन्वेक्स सेट होता है. प्रोटोटाइप के तौर पर दिए गए उत्तल फ़ंक्शन का आकार, U अक्षर जैसा होता है. उदाहरण के लिए, ये सभी कॉन्वेक्स फ़ंक्शन हैं:

यू-आकार के कर्व, जिनमें हर एक में एक ही सबसे कम पॉइंट होता है.

इसके उलट, यह फ़ंक्शन उत्तल नहीं है. ध्यान दें कि ग्राफ़ के ऊपर मौजूद क्षेत्र, उत्तल सेट नहीं है:

W-आकार का ऐसा कर्व जिसमें दो अलग-अलग लोकल माइनिमम पॉइंट हैं.

सख्ती से उत्तल फ़ंक्शन में सिर्फ़ एक स्थानीय कम से कम पॉइंट होता है, जो ग्लोबल कम से कम पॉइंट भी होता है. क्लासिक यू-आकार वाले फ़ंक्शन, सख्ती से उत्तल फ़ंक्शन होते हैं. हालांकि, कुछ उत्तल फ़ंक्शन (उदाहरण के लिए, सीधी रेखाएं) यू-आकार के नहीं होते.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में कन्वर्ज़न और उत्तल फ़ंक्शन देखें.

कॉनवेक्स ऑप्टिमाइज़ेशन

कॉन्वेक्स फ़ंक्शन का कम से कम वैल्यू ढूंढने के लिए, ग्रेडिएंट डिसेंट जैसी गणितीय तकनीकों का इस्तेमाल करने की प्रोसेस. मशीन लर्निंग में ज़्यादातर रिसर्च, अलग-अलग समस्याओं को कॉन्वेक्स ऑप्टिमाइज़ेशन समस्याओं के तौर पर तैयार करने और उन समस्याओं को ज़्यादा बेहतर तरीके से हल करने पर फ़ोकस करती है.

पूरी जानकारी के लिए, Boyd and Vandenberghe, Convex Optimization देखें.

कॉनवेक्स सेट

यह इयूक्लिडियन स्पेस का ऐसा सबसेट है कि सबसेट के किसी भी दो बिंदुओं के बीच खींची गई लाइन, पूरी तरह से सबसेट में ही रहती है. उदाहरण के लिए, यहां दिए गए दो आकार, उत्तल सेट हैं:

रेक्टैंगल का एक इलस्ट्रेशन. ओवल का एक और इलस्ट्रेशन.

इसके उलट, ये दोनों आकार उत्तल सेट नहीं हैं:

पाई चार्ट का एक इलस्ट्रेशन, जिसमें एक स्लाइस मौजूद नहीं है.
          बहुत अनियमित पॉलीगॉन का दूसरा उदाहरण.

कॉन्वोल्यूशन

#image

गणित में, दो फ़ंक्शन को मिलाकर बनाया गया फ़ंक्शन. मशीन लर्निंग में, वेट को ट्रेन करने के लिए, कॉन्वोल्यूशन, कॉन्वोल्यूशनल फ़िल्टर और इनपुट मैट्रिक को मिक्स करता है.

मशीन लर्निंग में "कंवोल्यूशन" शब्द का इस्तेमाल, अक्सर कंवोल्यूशन ऑपरेशन या कंवोल्यूशन लेयर के लिए किया जाता है.

कॉन्वोल्यूशन के बिना, मशीन लर्निंग एल्गोरिदम को बड़े टेंसर में हर सेल के लिए अलग वेट सीखना होगा. उदाहरण के लिए, 2K x 2K इमेज पर ट्रेनिंग करने वाले मशीन लर्निंग एल्गोरिदम को 40 लाख अलग-अलग वेट ढूंढने होंगे. कॉन्वोल्यूशन की मदद से, मशीन लर्निंग एल्गोरिदम को सिर्फ़ कॉन्वोल्यूशनल फ़िल्टर में हर सेल के लिए वेट ढूंढना होता है. इससे, मॉडल को ट्रेन करने के लिए ज़रूरी मेमोरी काफ़ी कम हो जाती है. जब कॉन्वोल्यूशनल फ़िल्टर लागू किया जाता है, तो उसे सभी सेल में दोहराया जाता है, ताकि हर सेल में फ़िल्टर का इस्तेमाल किया जा सके.

ज़्यादा जानकारी के लिए, इमेज क्लासिफ़िकेशन कोर्स में कन्वोल्यूशनल नेटवर्क के बारे में जानकारी देखें.

कॉन्वोल्यूशनल फ़िल्टर

#image

कन्वोल्यूशनल ऑपरेशन में मौजूद दो ऐक्टर में से एक. (दूसरा ऐक्टर, इनपुट मैट्रिक्स का एक स्लाइस है.) कॉन्वोल्यूशनल फ़िल्टर एक मैट्रिक होती है, जिसका रैंक, इनपुट मैट्रिक के रैंक जैसा होता है, लेकिन इसका साइज़ छोटा होता है. उदाहरण के लिए, 28x28 इनपुट मैट्रिक के लिए, फ़िल्टर 28x28 से छोटा कोई भी 2D मैट्रिक हो सकता है.

फ़ोटो में बदलाव करने के लिए, आम तौर पर कॉन्वोल्यूशनल फ़िल्टर की सभी सेल को एक और शून्य के एक तय पैटर्न पर सेट किया जाता है. मशीन लर्निंग में, आम तौर पर कॉन्वोल्यूशनल फ़िल्टर को रैंडम नंबर से शुरू किया जाता है. इसके बाद, नेटवर्क सही वैल्यू ट्रेन करता है.

ज़्यादा जानकारी के लिए, इमेज क्लासिफ़िकेशन कोर्स में कंवोल्यूशन देखें.

कॉन्वोल्यूशनल लेयर

#image

डीप न्यूरल नेटवर्क की एक लेयर, जिसमें कन्वोल्यूशनल फ़िल्टर, इनपुट मैट्रिक के साथ पास होता है. उदाहरण के लिए, यहां दिया गया 3x3 कन्वोल्यूशनल फ़िल्टर देखें:

3x3 मैट्रिक्स, जिसमें ये वैल्यू हैं: [[0,1,0], [1,0,1], [0,1,0]]

नीचे दिया गया ऐनिमेशन, एक कॉन्वोल्यूशनल लेयर दिखाता है. इसमें 5x5 इनपुट मैट्रिक्स वाले नौ कॉन्वोल्यूशनल ऑपरेशन शामिल हैं. ध्यान दें कि हर कॉन्वोल्यूशनल ऑपरेशन, इनपुट मैट्रिक्स के अलग-अलग 3x3 स्लाइस पर काम करता है. दाईं ओर मौजूद 3x3 मैट्रिक में, नौ कॉन्वोल्यूशनल ऑपरेशन के नतीजे शामिल होते हैं:

दो मैट्रिक दिखाने वाला ऐनिमेशन. पहला मैट्रिक्स 5x5 वाला मैट्रिक्स है: [[128,97,53,201,198], [35,22,25,200,195],
          [37,24,28,197,182], [33,28,92,195,179], [31,40,100,192,177]].
          दूसरा मैट्रिक्स 3x3 मैट्रिक्स है:
          [[181,303,618], [115,338,605], [169,351,560]].
          दूसरी मैट्रिक का हिसाब लगाने के लिए, 5x5 मैट्रिक के अलग-अलग 3x3 सबसेट पर, [[0, 1, 0], [1, 0, 1], [0, 1, 0]] कॉन्वोल्यूशनल फ़िल्टर लागू किया जाता है.

ज़्यादा जानकारी के लिए, इमेज क्लासिफ़िकेशन कोर्स में पूरी तरह से कनेक्ट की गई लेयर देखें.

कॉन्वोल्यूशनल न्यूरल नेटवर्क

#image

ऐसा न्यूरल नेटवर्क जिसमें कम से कम एक लेयर, कन्वोल्यूशनल लेयर हो. आम तौर पर, कॉन्वोल्यूशनल नेटवर्क में इन लेयर का कोई कॉम्बिनेशन होता है:

कॉन्वोल्यूशनल न्यूरल नेटवर्क, कुछ तरह की समस्याओं को हल करने में काफ़ी कारगर साबित हुए हैं. जैसे, इमेज की पहचान करना.

कॉन्वोल्यूशनल ऑपरेशन

#image

गणित का यह दो चरणों वाला ऑपरेशन:

  1. कन्वोल्यूशनल फ़िल्टर और इनपुट मैट्रिक्स के स्लाइस के एलिमेंट के हिसाब से गुणा करना. (इनपुट मैट्रिक्स के स्लाइस की रैंक और साइज़, कॉन्वोल्यूशनल फ़िल्टर जैसा ही होता है.)
  2. नतीजे के तौर पर मिलने वाले प्रॉडक्ट मैट्रिक्स में मौजूद सभी वैल्यू का योग.

उदाहरण के लिए, यहां दिया गया 5x5 इनपुट मैट्रिक देखें:

5x5 मैट्रिक्स: [[128,97,53,201,198], [35,22,25,200,195],
          [37,24,28,197,182], [33,28,92,195,179], [31,40,100,192,177]].

अब इस 2x2 कॉन्वोल्यूशनल फ़िल्टर की कल्पना करें:

2x2 मैट्रिक्स: [[1, 0], [0, 1]]

हर कॉन्वोल्यूशनल ऑपरेशन में, इनपुट मैट्रिक का एक 2x2 स्लाइस शामिल होता है. उदाहरण के लिए, मान लें कि हम इनपुट मैट्रिक्स के सबसे ऊपर बाईं ओर मौजूद 2x2 स्लाइस का इस्तेमाल करते हैं. इसलिए, इस स्लाइस पर कॉन्वोल्यूशन ऑपरेशन इस तरह दिखता है:

इनपुट मैट्रिक के सबसे ऊपर बाईं ओर मौजूद 2x2 सेक्शन, [[128,97], [35, 22]] पर कॉन्वोल्यूशनल फ़िल्टर [[1,0], [0,1]] लागू करना.
          कॉन्वोल्यूशनल फ़िल्टर, 128 और 22 को पहले जैसा ही रखता है, लेकिन 97 और 35 को शून्य कर देता है. इसलिए, कॉन्वोल्यूशन ऑपरेशन से 150 (128+22) वैल्यू मिलती है.

कन्वोल्यूशन लेयर में, कन्वोल्यूशन ऑपरेशन की एक सीरीज़ होती है. हर ऑपरेशन, इनपुट मैट्रिक्स के अलग-अलग स्लाइस पर काम करता है.

लागत

नुकसान का समानार्थी शब्द.

साथ मिलकर ट्रेनिंग

सेमी-सुपरवाइज़्ड लर्निंग का तरीका, खास तौर पर तब फ़ायदेमंद होता है, जब ये सभी शर्तें पूरी होती हैं:

को-ट्रेनिंग की मदद से, अलग-अलग सिग्नल को एक बेहतर सिग्नल में बदला जाता है. उदाहरण के लिए, एक कैटगरी तय करने वाले मॉडल पर विचार करें, जो इस्तेमाल की गई अलग-अलग कारों को अच्छी या खराब के तौर पर कैटगरी में बांटता है. अनुमान लगाने वाली सुविधाओं का एक सेट, कार के साल, मैन्युफ़ैक्चरर, और मॉडल जैसी सभी जानकारी पर फ़ोकस कर सकता है. वहीं, अनुमान लगाने वाली सुविधाओं का दूसरा सेट, कार के पिछले मालिक के ड्राइविंग रिकॉर्ड और कार के रखरखाव के इतिहास पर फ़ोकस कर सकता है.

को-ट्रेनिंग के बारे में सबसे अहम पेपर, ब्लम और मिशेल का को-ट्रेनिंग की मदद से लेबल किए गए और बिना लेबल वाले डेटा को जोड़ना है.

काउंटरफ़ैक्टुअल फ़ेयरनेस

#fairness

यह एक निष्पक्षता मेट्रिक है. इससे यह पता चलता है कि किसी क्लासिफ़ायर की मदद से, एक व्यक्ति के लिए वही नतीजा मिलता है या नहीं जो एक या एक से ज़्यादा संवेदनशील एट्रिब्यूट के अलावा, पहले व्यक्ति से मिलता-जुलता दूसरे व्यक्ति के लिए मिलता है. किसी मॉडल में पक्षपात के संभावित सोर्स को दिखाने का एक तरीका यह है कि आप क्लासिफ़ायर की जांच करें कि वह 'कंट्राफ़ैक्टुअल फ़ेयरनेस' के लिए सही है या नहीं.

ज़्यादा जानकारी के लिए, इनमें से कोई एक लेख पढ़ें:

कवरेज बायस

#fairness

चुनी गई वैल्यू में बायस देखें.

क्रैश ब्लॉसम

#language

ऐसा वाक्य या वाक्यांश जिसका मतलब साफ़ तौर पर न पता चल रहा हो. क्रैश ब्लॉसम, सामान्य भाषा को समझने में एक बड़ी समस्या है. उदाहरण के लिए, हेडलाइन रेड टेप से स्काईस्क्रेपर का निर्माण रुका एक क्रैश ब्लॉसम है, क्योंकि एनएलयू मॉडल हेडलाइन का मतलब, सही या फिर अलंकार के तौर पर समझ सकता है.

क्रिटिक

#rl

डीप क्यू-नेटवर्क का दूसरा नाम.

क्रॉस-एन्ट्रॉपी

मल्टी-क्लास क्लासिफ़िकेशन की समस्याओं के लिए, लॉग लॉस का सामान्यीकरण. क्रॉस-एन्ट्रापी, दो संभाव्यता डिस्ट्रिब्यूशन के बीच के अंतर को मेज़र करता है. perplexity भी देखें.

क्रॉस-वैलिडेशन

यह एक ऐसा तरीका है जिससे यह अनुमान लगाया जा सकता है कि मॉडल, नए डेटा के लिए कितना अच्छा होगा. इसके लिए, मॉडल को ट्रेनिंग सेट से हटाए गए एक या उससे ज़्यादा डेटा सबसेट के साथ टेस्ट किया जाता है.

क्यूमुलेटिव डिस्ट्रिब्यूशन फ़ंक्शन (सीडीएफ़)

ऐसा फ़ंक्शन जो टारगेट वैल्यू से कम या उसके बराबर सैंपल की फ़्रीक्वेंसी तय करता है. उदाहरण के लिए, लगातार वैल्यू के सामान्य डिस्ट्रिब्यूशन पर विचार करें. सीडीएफ़ से पता चलता है कि करीब 50% सैंपल, माध्य से कम या उसके बराबर होने चाहिए. साथ ही, करीब 84% सैंपल, माध्य से एक स्टैंडर्ड डिविएशन कम या उसके बराबर होने चाहिए.

D

डेटा का विश्लेषण

सैंपल, मेज़रमेंट, और विज़ुअलाइज़ेशन का इस्तेमाल करके, डेटा को समझना. डेटा का विश्लेषण तब खास तौर पर मददगार हो सकता है, जब पहली बार कोई मॉडल बनाने से पहले, डेटासेट मिलता है. यह एक्सपेरिमेंट को समझने और सिस्टम से जुड़ी समस्याओं को डीबग करने के लिए भी ज़रूरी है.

डेटा बढ़ाना

#image

ट्रेनिंग के उदाहरणों की रेंज और संख्या को कृत्रिम तरीके से बढ़ाना. इसके लिए, मौजूदा उदाहरणों को बदलकर, और उदाहरण बनाए जाते हैं. उदाहरण के लिए, मान लें कि इमेज आपकी सुविधाओं में से एक है, लेकिन आपके डेटासेट में इमेज के ज़रूरत के मुताबिक उदाहरण नहीं हैं, ताकि मॉडल काम के असोसिएशन सीख सके. आम तौर पर, अपने डेटासेट में ज़रूरत के मुताबिक लेबल की गई इमेज जोड़ी जाती हैं, ताकि आपके मॉडल को सही तरीके से ट्रेन किया जा सके. अगर ऐसा नहीं किया जा सकता, तो डेटा बढ़ाने की सुविधा, हर इमेज को घुमाकर, स्ट्रेच करके, और उसमें बदलाव करके, ओरिजनल इमेज के कई वैरिएंट बना सकती है. इससे, बेहतर ट्रेनिंग के लिए ज़रूरत के मुताबिक लेबल किया गया डेटा मिल सकता है.

DataFrame

#fundamentals

मेमोरी में डेटासेट को दिखाने के लिए, pandas का एक लोकप्रिय डेटा टाइप.

डेटाफ़्रेम, टेबल या स्प्रेडशीट की तरह ही होता है. DataFrame के हर कॉलम का एक नाम (हेडर) होता है. साथ ही, हर पंक्ति की पहचान एक यूनीक नंबर से की जाती है.

DataFrame में मौजूद हर कॉलम को 2D ऐरे की तरह बनाया जाता है. हालांकि, हर कॉलम को अपना डेटा टाइप असाइन किया जा सकता है.

pandas.DataFrame का आधिकारिक रेफ़रंस पेज भी देखें.

डेटा पैरलललिज़्म

ट्रेनिंग या अनुमान को स्केल करने का एक तरीका, जो कई डिवाइसों पर पूरे मॉडल की कॉपी बनाता है. इसके बाद, हर डिवाइस पर इनपुट डेटा का सबसेट भेजता है. डेटा पैरलेललिज़्म की मदद से, बहुत बड़े बैच साइज़ पर ट्रेनिंग और अनुमान लगाने की सुविधा चालू की जा सकती है. हालांकि, डेटा पैरलेललिज़्म के लिए ज़रूरी है कि मॉडल इतना छोटा हो कि वह सभी डिवाइसों पर फ़िट हो सके.

आम तौर पर, डेटा पैरलललिज़्म की मदद से, ट्रेनिंग और अनुमान लगाने की प्रोसेस तेज़ होती है.

मॉडल पैरलेलिज्म भी देखें.

डेटासेट एपीआई (tf.data)

#TensorFlow

डेटा को पढ़ने और उसे मशीन लर्निंग एल्गोरिदम के लिए ज़रूरी फ़ॉर्मैट में बदलने के लिए, TensorFlow का एक हाई-लेवल एपीआई. tf.data.Dataset ऑब्जेक्ट, एलिमेंट के क्रम को दिखाता है. इसमें हर एलिमेंट में एक या एक से ज़्यादा टेंसर होते हैं. tf.data.Iterator ऑब्जेक्ट, Dataset के एलिमेंट का ऐक्सेस देता है.

डेटा सेट या डेटासेट

#fundamentals

रॉ डेटा का कलेक्शन, आम तौर पर (हालांकि, सिर्फ़) इनमें से किसी एक फ़ॉर्मैट में व्यवस्थित किया जाता है:

  • स्प्रेडशीट
  • CSV (कॉमा लगाकर अलग की गई वैल्यू) फ़ॉर्मैट में फ़ाइल

फ़ैसला लेने की सीमा

बाइनरी क्लास या मल्टी-क्लास क्लासिफ़िकेशन की समस्याओं में, मॉडल से सीखी गई क्लास के बीच सेपरेटर. उदाहरण के लिए, नीचे दी गई इमेज में बाइनरी क्लासिफ़िकेशन की समस्या को दिखाया गया है. इसमें, ऑरेंज क्लास और नीले रंग की क्लास के बीच की सीमा को डिसीज़न बॉर्डर कहा जाता है:

एक क्लास और दूसरी क्लास के बीच की साफ़ तौर पर तय की गई सीमा.

डिसीज़न फ़ॉरेस्ट

#df

एक से ज़्यादा फ़ैसला लेने वाले ट्री से बनाया गया मॉडल. डिसीज़न फ़ॉरेस्ट, अपने डिसीज़न ट्री के अनुमान को इकट्ठा करके अनुमान लगाता है. डिसीज़न फ़ॉरेस्ट के लोकप्रिय टाइप में, रैंडम फ़ॉरेस्ट और ग्रेडिएंट बूस्ड ट्री शामिल हैं.

ज़्यादा जानकारी के लिए, डिसीज़न फ़ॉरेस्ट कोर्स में डिसीज़न फ़ॉरेस्ट सेक्शन देखें.

फ़ैसला लेने के लिए थ्रेशोल्ड

क्लासिफ़िकेशन थ्रेशोल्ड का दूसरा नाम.

डिसीज़न ट्री

#df

सुपरवाइज़्ड लर्निंग मॉडल, शर्तों और लीफ के सेट से बना होता है. ये शर्तें और लीफ, हैरारकी के हिसाब से व्यवस्थित होते हैं. उदाहरण के लिए, यहां एक फ़ैसला ट्री दिया गया है:

यह एक डिसिज़न ट्री है, जिसमें चार शर्तें हैं. इन्हें क्रम से व्यवस्थित किया गया है. इन शर्तों के आधार पर, पांच नतीजे मिलते हैं.

डिकोडर

#language

आम तौर पर, कोई भी एमएल सिस्टम जो प्रोसेस किए गए, घने या अंदरूनी डेटा को ज़्यादा रॉ, स्पैर्स या बाहरी डेटा में बदलता है.

डिकोडर, अक्सर बड़े मॉडल का एक कॉम्पोनेंट होता है. आम तौर पर, इन्हें एन्कोडर के साथ जोड़ा जाता है.

सीक्वेंस-टू-सीक्वेंस टास्क में, डिकोडर अगले सीक्वेंस का अनुमान लगाने के लिए, एन्कोडर से जनरेट की गई इंटरनल स्टेटस से शुरू होता है.

Transformer आर्किटेक्चर में डिकोडर की परिभाषा के लिए, Transformer देखें.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में बड़े लैंग्वेज मॉडल देखें.

डीप मॉडल

#fundamentals

एक न्यूरल नेटवर्क जिसमें एक से ज़्यादा हाइडन लेयर हों.

डीप मॉडल को डीप न्यूरल नेटवर्क भी कहा जाता है.

वाइड मॉडल के साथ कंट्रास्ट.

डीप न्यूरल नेटवर्क

डीप मॉडल का समानार्थी शब्द.

डीप क्यू-नेटवर्क (DQN)

#rl

क्यू-लर्निंग में, न्यूरल नेटवर्क का इस्तेमाल किया जाता है. यह क्यू-फ़ंक्शन का अनुमान लगाता है.

Critic, डीप क्यू-नेटवर्क का दूसरा नाम है.

डेमोग्राफ़िक पैरिटी

#fairness

निष्पक्षता मेट्रिक, जो तब पूरी होती है, जब किसी मॉडल के क्लासिफ़िकेशन के नतीजे, किसी दिए गए संवेदनशील एट्रिब्यूट पर निर्भर न हों.

उदाहरण के लिए, अगर लिलिपुटियन और ब्रॉबडिंगनियन, दोनों ही ग्लब्बडब्रिब यूनिवर्सिटी में आवेदन करते हैं, तो डेमोग्राफ़ी के हिसाब से समानता तब हासिल होती है, जब लिलिपुटियन और ब्रॉबडिंगनियन, दोनों के लिए स्वीकार किए गए लोगों का प्रतिशत एक जैसा हो. भले ही, एक ग्रुप औसतन दूसरे ग्रुप से ज़्यादा योग्य हो.

समान संभावना और समान अवसर के साथ तुलना करें. इनमें, संवेदनशील एट्रिब्यूट के आधार पर, एग्रीगेट में कैटगरी के नतीजे दिखाने की अनुमति होती है. हालांकि, कुछ खास ग्राउंड ट्रूथ लेबल के लिए, कैटगरी के नतीजे दिखाने की अनुमति नहीं होती. डेमोग्राफ़ी के हिसाब से बराबरी के लिए ऑप्टिमाइज़ करते समय, फ़ायदे और नुकसान को एक्सप्लोर करने वाले विज़ुअलाइज़ेशन के लिए, "स्मार्ट मशीन लर्निंग की मदद से, भेदभाव को रोकना" देखें.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में निष्पक्षता: डेमोग्राफ़िक के हिसाब से बराबरी देखें.

ग़ैर-ज़रूरी आवाज़ें हटाना

#language

सेल्फ़-सुपरवाइज़्ड लर्निंग के लिए एक सामान्य तरीका, जिसमें:

  1. डेटासेट में कृत्रिम तरीके से ग़ैर-ज़रूरी आवाज़ें जोड़ी जाती हैं.
  2. मॉडल, ग़ैर-ज़रूरी आवाज़ों को हटाने की कोशिश करता है.

ग़ैर-ज़रूरी चीज़ों को हटाने की सुविधा से, लेबल न किए गए उदाहरणों से सीखने में मदद मिलती है. ओरिजनल डेटासेट, टारगेट या लेबल के तौर पर काम करता है. साथ ही, ग़ैर-ज़रूरी डेटा, इनपुट के तौर पर काम करता है.

कुछ मास्क किए गए लैंग्वेज मॉडल, ग़ैर-ज़रूरी आवाज़ों को हटाने के लिए इस तरह का इस्तेमाल करते हैं:

  1. कुछ टोक़न को मास्क करके, लेबल नहीं किए गए वाक्य में ग़ैर-ज़रूरी जानकारी को कृत्रिम तरीके से जोड़ा जाता है.
  2. मॉडल, ओरिजनल टोकन का अनुमान लगाने की कोशिश करता है.

घनी सुविधा

#fundamentals

ऐसी फ़ीचर जिसमें ज़्यादातर या सभी वैल्यू शून्य से ज़्यादा होती हैं. आम तौर पर, यह फ़्लोटिंग-पॉइंट वैल्यू का टेंसर होता है. उदाहरण के लिए, यहां दिया गया 10 एलिमेंट वाला टेंसर, डेंस है, क्योंकि इसकी नौ वैल्यू शून्य से ज़्यादा हैं:

8 3 7 5 2 4 0 4 9 6

स्पैस फ़ीचर के साथ तुलना करें.

घनी लेयर

पूरी तरह से कनेक्ट की गई लेयर का दूसरा नाम.

गहराई

#fundamentals

न्यूरल नेटवर्क में इनका योग:

उदाहरण के लिए, पांच छिपी हुई लेयर और एक आउटपुट लेयर वाले न्यूरल नेटवर्क की गहराई 6 होती है.

ध्यान दें कि इनपुट लेयर से डेप्थ पर असर नहीं पड़ता.

डेप्थ-वाइज़ सेपरेबल कॉन्वोल्यूशनल न्यूरल नेटवर्क (sepCNN)

#image

कन्वोल्यूशनल न्यूरल नेटवर्क का एक ऐसा आर्किटेक्चर जो Inception पर आधारित है. हालांकि, इसमें Inception मॉड्यूल को डेप्थवाइज़ सेपरेबल कन्वोल्यूशन से बदल दिया गया है. इसे Xception भी कहा जाता है.

डेप्थवाइज़ सेपरेबल कन्वोल्यूशन (जिसे सेपरेबल कन्वोल्यूशन भी कहा जाता है) एक स्टैंडर्ड 3D कन्वोल्यूशन को दो अलग-अलग कन्वोल्यूशन ऑपरेशन में फ़ैक्टर करता है. ये ऑपरेशन, कैलकुलेशन के लिहाज़ से ज़्यादा असरदार होते हैं: पहला, डेप्थवाइज़ कन्वोल्यूशन, जिसकी डेप्थ 1 (n ✕ n ✕ 1) होती है. दूसरा, पॉइंटवाइज़ कन्वोल्यूशन, जिसकी लंबाई और चौड़ाई 1 (1 ✕ 1 ✕ n) होती है.

ज़्यादा जानने के लिए, Xception: डेप्थवाइज़ सेपरेबल कॉन्वोल्यूशन के साथ डीप लर्निंग लेख पढ़ें.

डिराइव्ड लेबल

प्रॉक्सी लेबल का समानार्थी शब्द.

डिवाइस

#TensorFlow
#GoogleCloud

ओवरलोड किया गया शब्द, जिसकी ये दो संभावित परिभाषाएं हैं:

  1. हार्डवेयर की एक कैटगरी, जिसमें सीपीयू, जीपीयू, और TPU शामिल हैं. ये हार्डवेयर, TensorFlow सेशन चला सकते हैं.
  2. ऐक्सेलरेटर चिप (GPU या TPU) पर किसी एमएल मॉडल को ट्रेनिंग देते समय, सिस्टम का वह हिस्सा जो असल में टेंसर और एम्बेड में बदलाव करता है. यह डिवाइस, ऐक्सेलरेटर चिप पर काम करता है. इसके उलट, होस्ट आम तौर पर सीपीयू पर चलता है.

डिफ़रेंशियल प्राइवसी

मशीन लर्निंग में, मॉडल के ट्रेनिंग सेट में शामिल किसी भी संवेदनशील डेटा (उदाहरण के लिए, किसी व्यक्ति की निजी जानकारी) को ज़ाहिर होने से बचाने के लिए, पहचान छिपाने का तरीका. इस तरीके से यह पक्का किया जाता है कि मॉडल किसी व्यक्ति के बारे में ज़्यादा न सीखे या याद न रखे. ऐसा करने के लिए, मॉडल को ट्रेनिंग देते समय सैंपलिंग की जाती है और नॉइज़ जोड़ा जाता है. इससे अलग-अलग डेटा पॉइंट छिप जाते हैं और ट्रेनिंग के लिए इस्तेमाल किए गए संवेदनशील डेटा के ज़ाहिर होने का जोखिम कम हो जाता है.

डिफ़रेंशियल प्राइवसी का इस्तेमाल, मशीन लर्निंग के अलावा अन्य जगहों पर भी किया जाता है. उदाहरण के लिए, डेटा साइंटिस्ट कभी-कभी अलग-अलग डेमोग्राफ़िक्स के लिए प्रॉडक्ट के इस्तेमाल के आंकड़ों का हिसाब लगाते समय, किसी व्यक्ति की निजता को सुरक्षित रखने के लिए डिफ़रेंशियल प्राइवसी का इस्तेमाल करते हैं.

डाइमेंशन कम करना

किसी फ़ीचर वेक्टर में किसी खास फ़ीचर को दिखाने के लिए इस्तेमाल किए गए डाइमेंशन की संख्या कम करना. आम तौर पर, एम्बेडिंग वेक्टर में बदलकर ऐसा किया जाता है.

आयाम

ओवरलोड किया गया ऐसा शब्द जिसकी इनमें से कोई परिभाषा हो:

  • Tensor में निर्देशांक के लेवल की संख्या. उदाहरण के लिए:

    • स्केलर में कोई डाइमेंशन नहीं होता. उदाहरण के लिए, ["Hello"].
    • वेक्टर में एक डाइमेंशन होता है. उदाहरण के लिए, [3, 5, 7, 11].
    • मैट्रिक में दो डाइमेंशन होते हैं. उदाहरण के लिए, [[2, 4, 18], [5, 7, 14]]. एक डाइमेंशन वाले वेक्टर में, एक निर्देशांक की मदद से किसी खास सेल को यूनीक तौर पर दिखाया जा सकता है. वहीं, दो डाइमेंशन वाले मैट्रिक में किसी खास सेल को यूनीक तौर पर दिखाने के लिए, दो निर्देशांक की ज़रूरत होती है.
  • फ़ीचर वेक्टर में मौजूद एंट्री की संख्या.

  • एम्बेडिंग लेयर में मौजूद एलिमेंट की संख्या.

सीधे तौर पर निर्देश देना

#language
#generativeAI

ज़ीरो-शॉट प्रॉम्प्ट का समानार्थी शब्द.

डिस्क्रीट सुविधा

#fundamentals

संभावित वैल्यू के सीमित सेट वाली सुविधा. उदाहरण के लिए, ऐसी विशेषता जिसकी वैल्यू सिर्फ़ जानवर, सब्जी या खनिज हो सकती है, वह अलग-अलग (या कैटगरी वाली) विशेषता होती है.

लगातार चलने वाली सुविधा के साथ तुलना करें.

डिसक्रिमिनेटिव मॉडल

एक ऐसा मॉडल जो एक या एक से ज़्यादा सुविधाओं के सेट से लेबल का अनुमान लगाता है. ज़्यादा औपचारिक तौर पर, डिस्क्रीमिनेटिव मॉडल, किसी नतीजे की संभावित संभावना तय करते हैं. इसके लिए, वे सुविधाओं और वज़न का इस्तेमाल करते हैं. इसका मतलब है कि:

p(output | features, weights)

उदाहरण के लिए, कोई ऐसा मॉडल जो सुविधाओं और अहमियत के आधार पर यह अनुमान लगाता है कि कोई ईमेल स्पैम है या नहीं, वह भेदभाव करने वाला मॉडल है.

सुपरवाइज़्ड लर्निंग के ज़्यादातर मॉडल, भेदभाव करने वाले मॉडल होते हैं. इनमें कैटगरी तय करने और रिग्रेशन मॉडल भी शामिल हैं.

जनरेटिव मॉडल के साथ तुलना करें.

डिस्क्रिमिनेटर

यह सिस्टम यह तय करता है कि उदाहरण असली हैं या नकली.

इसके अलावा, जनरेटिव ऐडवर्सेरी नेटवर्क में मौजूद सबसिस्टम, यह तय करता है कि जनरेटर से बनाए गए उदाहरण असली हैं या नकली.

ज़्यादा जानकारी के लिए, जीएएन कोर्स में डिस्करिमिनेटर देखें.

अलग-अलग असर

#fairness

लोगों के बारे में ऐसे फ़ैसले लेना जिनका असर, अलग-अलग उप-समूहों पर अलग-अलग तरह से पड़ता हो. आम तौर पर, इसका मतलब उन स्थितियों से है जहां एल्गोरिदम की मदद से फ़ैसला लेने की प्रोसेस से, कुछ उप-समूहों को दूसरों की तुलना में ज़्यादा फ़ायदा या नुकसान पहुंचता है.

उदाहरण के लिए, मान लें कि कोई एल्गोरिदम यह तय करता है कि किसी व्यक्ति को छोटे घर के लिए क़र्ज़ मिल सकता है या नहीं. अगर उसके मेलिंग पते में कोई खास पिन कोड है, तो एल्गोरिदम उसे "ज़रूरी शर्तें पूरी नहीं करता" के तौर पर मार्क कर सकता है. अगर लिलिपुटियन में से बिग-इंडियन के पास, लिलिपुटियन में से लिटल-इंडियन के मुकाबले ज़्यादा पिन कोड वाले मेलिंग पते हैं, तो इस एल्गोरिदम से अलग-अलग असर पड़ सकता है.

इसे अलग-अलग तरह से व्यवहार करने से अलग समझें. इसमें उन अंतर पर फ़ोकस किया जाता है जो तब पैदा होते हैं, जब एल्गोरिदम से फ़ैसला लेने की प्रोसेस में, सबग्रुप की विशेषताओं को साफ़ तौर पर इनपुट के तौर पर इस्तेमाल किया जाता है.

अलग-अलग तरह से व्यवहार करना

#fairness

एल्गोरिदम की मदद से फ़ैसला लेने की प्रोसेस में, लोगों के संवेदनशील एट्रिब्यूट को ध्यान में रखना. इससे लोगों के अलग-अलग ग्रुप के साथ अलग-अलग व्यवहार किया जाता है.

उदाहरण के लिए, एक एल्गोरिदम के बारे में सोचें जो क़र्ज़ के आवेदन में दिए गए डेटा के आधार पर, लिलिपुटियन के लिए छोटे घर के क़र्ज़ की ज़रूरी शर्तें तय करता है. अगर एल्गोरिदम, इनपुट के तौर पर बिग-इंडियन या लिटल-इंडियन के तौर पर लिलिपुटियन के अफ़िलिएशन का इस्तेमाल करता है, तो वह उस डाइमेंशन के हिसाब से अलग-अलग तरीके से काम कर रहा है.

इसे अलग-अलग असर से अलग समझें. यह सब-ग्रुप पर एल्गोरिदम के फ़ैसलों के सामाजिक असर में अंतर पर फ़ोकस करता है. भले ही, वे सब-ग्रुप मॉडल के इनपुट हों या नहीं.

आसवन

#generativeAI

किसी मॉडल (जिसे टीचर कहा जाता है) के साइज़ को कम करके, उसे एक छोटे मॉडल (जिसे स्टूडेंट कहा जाता है) में बदलने की प्रोसेस. यह मॉडल, ओरिजनल मॉडल के अनुमान को ज़्यादा से ज़्यादा सटीक तरीके से लागू करता है. डिस्टिलेशन का इस्तेमाल करना इसलिए फ़ायदेमंद है, क्योंकि छोटे मॉडल के मुकाबले बड़े मॉडल (शिक्षक) के दो मुख्य फ़ायदे होते हैं:

  • अनुमान लगाने में कम समय लगता है
  • मेमोरी और ऊर्जा की खपत कम होना

हालांकि, आम तौर पर छात्र-छात्राओं के अनुमान, शिक्षक के अनुमान के मुकाबले उतने अच्छे नहीं होते.

डिस्टिलेशन, स्टूडेंट मॉडल को ट्रेन करता है, ताकि लॉस फ़ंक्शन को कम किया जा सके. यह फ़ंक्शन, स्टूडेंट और टीचर मॉडल के अनुमान के आउटपुट के बीच के अंतर के आधार पर तय होता है.

इन शब्दों के साथ आसवन की तुलना करें:

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में एलएलएम: बेहतर बनाना, डेटा को छोटा करना, और प्रॉम्प्ट इंजीनियरिंग देखें.

डिस्ट्रिब्यूशन

किसी सुविधा या लेबल के लिए, अलग-अलग वैल्यू की फ़्रीक्वेंसी और रेंज. डिस्ट्रिब्यूशन से यह पता चलता है कि किसी खास वैल्यू की संभावना कितनी है.

नीचे दी गई इमेज में, दो अलग-अलग डिस्ट्रिब्यूशन के हिस्टोग्राम दिखाए गए हैं:

  • बाईं ओर, धन के पावर लॉ डिस्ट्रिब्यूशन के मुकाबले, उस धन को पाने वाले लोगों की संख्या.
  • दाईं ओर, लंबाई के सामान्य डिस्ट्रिब्यूशन के मुकाबले, उस लंबाई वाले लोगों की संख्या.

दो हिस्टोग्राम. एक हिस्टोग्राम में, x-ऐक्सिस पर संपत्ति और y-ऐक्सिस पर उस संपत्ति वाले लोगों की संख्या के साथ पावर लॉ डिस्ट्रिब्यूशन दिखाया गया है. ज़्यादातर लोगों के पास बहुत कम संपत्ति होती है और कुछ लोगों के पास
          बहुत ज़्यादा संपत्ति होती है. दूसरा हिस्टोग्राम, सामान्य डिस्ट्रिब्यूशन दिखाता है. इसमें x-ऐक्सिस पर ऊंचाई और y-ऐक्सिस पर उस ऊंचाई वाले लोगों की संख्या होती है. ज़्यादातर लोग औसत के आस-पास होते हैं.

हर सुविधा और लेबल के डिस्ट्रिब्यूशन को समझने से, आपको यह तय करने में मदद मिल सकती है कि वैल्यू को नॉर्मलाइज़ कैसे करें और आउटलायर का पता कैसे लगाएं.

डिस्ट्रिब्यूशन में नहीं है वाक्यांश का मतलब ऐसी वैल्यू से है जो डेटासेट में नहीं दिखती या बहुत कम दिखती है. उदाहरण के लिए, बिल्ली की इमेज वाले डेटासेट के लिए, शनि ग्रह की इमेज को डिस्ट्रिब्यूशन से बाहर माना जाएगा.

डिविज़िव क्लस्टरिंग

#clustering

हैरारकी क्लस्टरिंग देखें.

डाउनसैंपलिंग

#image

ओवरलोड किया गया शब्द, जिसका मतलब इनमें से कोई एक हो सकता है:

  • किसी मॉडल को ज़्यादा बेहतर तरीके से ट्रेन करने के लिए, सुविधा में मौजूद जानकारी को कम करना. उदाहरण के लिए, इमेज पहचानने वाले मॉडल को ट्रेनिंग देने से पहले, ज़्यादा रिज़ॉल्यूशन वाली इमेज को कम रिज़ॉल्यूशन वाले फ़ॉर्मैट में बदलना.
  • ज़्यादा संख्या में मौजूद क्लास के उदाहरणों के मुकाबले, कम संख्या में मौजूद उदाहरणों पर ट्रेनिंग देना. इससे, कम संख्या में मौजूद क्लास के लिए मॉडल की ट्रेनिंग को बेहतर बनाया जा सकता है. उदाहरण के लिए, क्लास के हिसाब से असंतुलित डेटासेट में, मॉडल बड़ी संख्या में मौजूद क्लास के बारे में ज़्यादा सीखते हैं और कम संख्या में मौजूद क्लास के बारे में ज़रूरत के मुताबिक नहीं सीखते. डाउनसैंपलिंग की मदद से, ज़्यादा और कम संख्या वाली क्लास के लिए ट्रेनिंग की संख्या को संतुलित किया जा सकता है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में डेटासेट: असंतुलित डेटासेट देखें.

DQN

#rl

डीप क्यू-नेटवर्क का छोटा नाम.

ड्रॉपआउट रेगुलराइज़ेशन

रेगुलराइज़ेशन का एक फ़ॉर्म, जो न्यूरल नेटवर्क को ट्रेनिंग देने में मददगार होता है. ड्रॉपआउट रेगुलराइज़ेशन, किसी एक ग्रेडिएंट चरण के लिए, नेटवर्क लेयर में यूनिट की तय संख्या को रैंडम तरीके से हटा देता है. जितनी ज़्यादा यूनिट छोड़ी जाएंगी, उतना ही ज़्यादा रेगुलराइज़ेशन होगा. यह छोटे नेटवर्क के बहुत बड़े एनसेंबल को एमुलेट करने के लिए, नेटवर्क को ट्रेनिंग देने जैसा है. पूरी जानकारी के लिए, ड्रॉपआउट: न्यूरल नेटवर्क को ज़्यादा फ़िट होने से रोकने का आसान तरीका देखें.

डाइनैमिक

#fundamentals

ऐसा काम जो बार-बार या लगातार किया जाता है. मशीन लर्निंग में, डाइनैमिक और ऑनलाइन शब्द एक जैसे माने जाते हैं. मशीन लर्निंग में डाइनैमिक और ऑनलाइन का इस्तेमाल आम तौर पर इन कामों के लिए किया जाता है:

  • डाइनैमिक मॉडल (या ऑनलाइन मॉडल) एक ऐसा मॉडल होता है जिसे बार-बार या लगातार फिर से ट्रेन किया जाता है.
  • डाइनैमिक ट्रेनिंग या ऑनलाइन ट्रेनिंग, बार-बार या लगातार ट्रेनिंग की प्रोसेस है.
  • डाइनैमिक अनुमान (या ऑनलाइन अनुमान) ऐसी प्रोसेस है जिसमें मांग के हिसाब से अनुमान जनरेट किए जाते हैं.

डाइनैमिक मॉडल

#fundamentals

ऐसा मॉडल जिसे बार-बार (शायद लगातार) फिर से ट्रेन किया जाता है. डाइनैमिक मॉडल एक "लाइफ़लौंग लर्नर" होता है, जो लगातार बदलते डेटा के हिसाब से ढल जाता है. डाइनैमिक मॉडल को ऑनलाइन मॉडल भी कहा जाता है.

स्टैटिक मॉडल के साथ तुलना करें.

E

ईगर एक्ज़ीक्यूशन

#TensorFlow

TensorFlow प्रोग्रामिंग एनवायरमेंट, जिसमें ऑपरेशन तुरंत चलते हैं. इसके उलट, ग्राफ़ को लागू करने के दौरान, ऑपरेशन तब तक नहीं चलते, जब तक उनका साफ़ तौर पर आकलन नहीं किया जाता. ईगर एक्ज़ीक्यूशन, इंपरिएटिव इंटरफ़ेस है. यह ज़्यादातर प्रोग्रामिंग भाषाओं के कोड की तरह ही होता है. आम तौर पर, ग्राफ़ एक्ज़ीक्यूशन प्रोग्राम की तुलना में, ईगर एक्ज़ीक्यूशन प्रोग्राम को डीबग करना काफ़ी आसान होता है.

जल्दी रुकना

#fundamentals

रेगुलराइज़ेशन का एक तरीका, जिसमें ट्रेनिंग लॉस कम होने से पहले ट्रेनिंग को खत्म करना शामिल है. जल्दी रोकने की सुविधा का इस्तेमाल करके, पुष्टि करने वाले डेटासेट पर लॉस बढ़ने पर, मॉडल को ट्रेनिंग देना जान-बूझकर बंद किया जाता है. इसका मतलब है कि जब जनरलाइज़ेशन की परफ़ॉर्मेंस खराब हो जाती है.

मशीन से चलने वाले वाहन की दूरी (ईएमडी)

दो डिस्ट्रिब्यूशन की तुलना करने का तरीका. मशीन की दूरी जितनी कम होगी, डिस्ट्रिब्यूशन उतने ही मिलते-जुलते होंगे.

दूरी में बदलाव करना

#language

इससे पता चलता है कि दो टेक्स्ट स्ट्रिंग एक-दूसरे से कितनी मिलती-जुलती हैं. मशीन लर्निंग में, बदलाव की दूरी इन वजहों से काम की होती है:

  • बदलाव की दूरी का हिसाब लगाना आसान है.
  • बदलाव की दूरी की सुविधा, दो ऐसी स्ट्रिंग की तुलना कर सकती है जो एक-दूसरे से मिलती-जुलती हों.
  • बदलाव की दूरी से यह पता चलता है कि अलग-अलग स्ट्रिंग, किसी दी गई स्ट्रिंग से कितनी मिलती-जुलती हैं.

बदलाव की दूरी की कई परिभाषाएं हैं. हर परिभाषा में अलग-अलग स्ट्रिंग ऑपरेशन का इस्तेमाल किया जाता है. उदाहरण के लिए, लेवेंश्टाइन दूरी देखें.

Einsum नोटेशन

दो टेंसर को एक साथ जोड़ने का तरीका बताने के लिए, एक बेहतर नोटेशन. टेंसर को एक टेंसर के एलिमेंट को दूसरे टेंसर के एलिमेंट से गुणा करके और फिर प्रॉडक्ट को जोड़कर जोड़ा जाता है. Einsum नोटेशन में, हर टेंसर के ऐक्सिस की पहचान करने के लिए सिंबल का इस्तेमाल किया जाता है. साथ ही, नतीजे में मिलने वाले नए टेंसर के आकार की जानकारी देने के लिए, उन सिंबल को फिर से व्यवस्थित किया जाता है.

NumPy, Einsum का सामान्य तरीका उपलब्ध कराता है.

एम्बेड करने वाली लेयर

#language
#fundamentals

एक खास हाइडन लेयर, जो कम डाइमेंशन वाले एम्बेडिंग वेक्टर को धीरे-धीरे सीखने के लिए, ज़्यादा डाइमेंशन वाली कैटगरी वाली सुविधा पर ट्रेन करती है. एम्बेडिंग लेयर की मदद से, न्यूरल नेटवर्क को सिर्फ़ कैटगरी वाली हाई-डाइमेंशनल सुविधा पर ट्रेनिंग देने के मुकाबले, ज़्यादा बेहतर तरीके से ट्रेन किया जा सकता है.

उदाहरण के लिए, Earth पर फ़िलहाल पेड़ों की करीब 73,000 प्रजातियों की जानकारी उपलब्ध है. मान लें कि आपके मॉडल में पेड़ की प्रजाति एक सुविधा है. इसलिए, आपके मॉडल की इनपुट लेयर में 73,000 एलिमेंट वाला वन-हॉट वेक्टर शामिल है. उदाहरण के लिए, baobab को कुछ इस तरह दिखाया जाएगा:

73,000 एलिमेंट का कलेक्शन. पहले 6,232 एलिमेंट की वैल्यू
     0 है. अगले एलिमेंट में वैल्यू 1 है. आखिरी 66,767 एलिमेंट में वैल्यू शून्य है.

73,000 एलिमेंट वाला कलेक्शन बहुत बड़ा है. अगर मॉडल में एम्बेडिंग लेयर नहीं जोड़ी जाती है, तो 72,999 शून्य को गुणा करने की वजह से, ट्रेनिंग में काफ़ी समय लगेगा. मान लें कि आपने एम्बेड करने वाली लेयर को 12 डाइमेंशन के साथ चुना है. इस वजह से, एम्बेडिंग लेयर धीरे-धीरे हर पेड़ की प्रजाति के लिए, एक नया एम्बेडिंग वेक्टर सीख लेगी.

कुछ मामलों में, एम्बेडिंग लेयर के बजाय हैश का इस्तेमाल करना बेहतर होता है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में एम्बेड देखें.

स्पेस को एम्बेड करना

#language

d-डाइमेंशन वाला वेक्टर स्पेस, जिसे ज़्यादा डाइमेंशन वाले वेक्टर स्पेस से मैप किया जाता है. एम्बेडिंग स्पेस को, टारगेट किए गए ऐप्लिकेशन के लिए काम का स्ट्रक्चर कैप्चर करने के लिए ट्रेन किया जाता है.

दो एम्बेडमेंट के डॉट प्रॉडक्ट से उनकी समानता का पता चलता है.

एम्बेडिंग वेक्टर

#language

आम तौर पर, यह किसी भी हाइडन लेयर से लिया गया, फ़्लोटिंग-पॉइंट नंबर का एक कलेक्शन होता है. यह उस हाइडन लेयर के इनपुट के बारे में बताता है. आम तौर पर, एम्बेडिंग वेक्टर, एम्बेडिंग लेयर में ट्रेन किए गए फ़्लोटिंग-पॉइंट नंबर का कलेक्शन होता है. उदाहरण के लिए, मान लें कि किसी एम्बेडिंग लेयर को पृथ्वी पर मौजूद 73,000 पेड़ों की हर प्रजाति के लिए एम्बेडिंग वेक्टर सीखना है. शायद यह ऐरे, बेओबैब ट्री के लिए एम्बेड किया गया वेक्टर है:

12 एलिमेंट का कलेक्शन, जिसमें हर एलिमेंट में 0.0 और 1.0 के बीच की फ़्लोटिंग-पॉइंट संख्या होती है.

एम्बेडिंग वेक्टर, बेतरतीब नंबरों का ग्रुप नहीं होता. एम्बेडिंग लेयर, ट्रेनिंग की मदद से इन वैल्यू का पता लगाती है. यह उसी तरह होता है जिस तरह एक न्यूरल नेटवर्क, ट्रेनिंग के दौरान अन्य वेट सीखता है. ऐरे का हर एलिमेंट, किसी पेड़ की प्रजाति की किसी विशेषता के हिसाब से रेटिंग होती है. कौनसा एलिमेंट, पेड़ की किस प्रजाति की विशेषता को दिखाता है? यह तय करना बहुत मुश्किल है कि

एम्बेडिंग वेक्टर का गणितीय तौर पर सबसे अहम हिस्सा यह है कि मिलते-जुलते आइटम में फ़्लोटिंग-पॉइंट नंबर के मिलते-जुलते सेट होते हैं. उदाहरण के लिए, एक जैसी पेड़ की प्रजातियों के लिए, अलग-अलग पेड़ की प्रजातियों के मुकाबले फ़्लोटिंग-पॉइंट वाली संख्याओं का सेट ज़्यादा मिलता-जुलता होता है. रेडवुड और सिकोया, पेड़ की एक ही प्रजाति के हैं. इसलिए, इनके लिए फ़्लोटिंग-पॉइंट वाली संख्याओं का सेट, रेडवुड और नारियल के पेड़ों के मुकाबले ज़्यादा मिलता-जुलता होगा. हर बार मॉडल को फिर से ट्रेन करने पर, एम्बेडिंग वेक्टर में मौजूद संख्याएं बदल जाएंगी. भले ही, आपने मॉडल को एक जैसे इनपुट के साथ फिर से ट्रेन किया हो.

अनुभवजन्य क्यूमुलेटिव डिस्ट्रिब्यूशन फ़ंक्शन (eCDF या EDF)

क्यूमुलेटिव डिस्ट्रिब्यूशन फ़ंक्शन, जो किसी असल डेटासेट के एम्पिरिकल मेज़रमेंट पर आधारित होता है. x-ऐक्सिस पर किसी भी बिंदु पर फ़ंक्शन की वैल्यू, डेटासेट में मौजूद उन ऑब्ज़र्वेशन का हिस्सा होती है जो तय की गई वैल्यू से कम या उसके बराबर होते हैं.

एक्सपेरिमेंटल रिस्क मिनिमाइज़ेशन (ईआरएम)

ट्रेनिंग सेट पर लॉस को कम करने वाला फ़ंक्शन चुनना. स्ट्रक्चरल रिस्क को कम करने के साथ तुलना करें.

एन्कोडर

#language

आम तौर पर, कोई भी एमएल सिस्टम जो रॉ, स्पैर्स या बाहरी डेटा को ज़्यादा प्रोसेस किए गए, ज़्यादा डेटा वाले या ज़्यादा इंटरनल डेटा में बदलता है.

आम तौर पर, एन्कोडर किसी बड़े मॉडल का कॉम्पोनेंट होता है. इसमें अक्सर डिकोडर के साथ जोड़ा जाता है. कुछ ट्रांसफ़ॉर्मर, एन्कोडर को डिकोडर के साथ जोड़ते हैं. हालांकि, कुछ ट्रांसफ़ॉर्मर सिर्फ़ एन्कोडर या सिर्फ़ डिकोडर का इस्तेमाल करते हैं.

कुछ सिस्टम, एन्कोडर के आउटपुट को क्लासिफ़िकेशन या रिग्रेशन नेटवर्क के इनपुट के तौर पर इस्तेमाल करते हैं.

सीक्वेंस-टू-सीक्वेंस टास्क में, एन्कोडर एक इनपुट सीक्वेंस लेता है और एक इंटरनल स्टेटस (वेक्टर) दिखाता है. इसके बाद, अगले क्रम का अनुमान लगाने के लिए, डिकोडर उस इंटरनल स्टेटस का इस्तेमाल करता है.

Transformer आर्किटेक्चर में एन्कोडर की परिभाषा के लिए, Transformer देखें.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में एलएलएम: लार्ज लैंग्वेज मॉडल क्या है देखें.

एन्सेम्बल

अलग-अलग मॉडल का कलेक्शन, जिन्हें अलग-अलग ट्रेन किया गया है. इन मॉडल के अनुमानों का औसत या एग्रीगेट किया जाता है. ज़्यादातर मामलों में, किसी एक मॉडल के मुकाबले एन्सेम्बल से बेहतर अनुमान मिलते हैं. उदाहरण के लिए, रैंडम फ़ॉरेस्ट, एक ऐसा एन्सेम्बल है जिसे कई फ़ैसला लेने वाले ट्री से बनाया जाता है. ध्यान दें कि सभी फ़ैसला फ़ॉरेस्ट, एन्सेम्बल नहीं होते.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में रैंडम फ़ॉरेस्ट देखें.

एन्ट्रॉपी

#df

जानकारी के सिद्धांत में, एन्ट्रॉपी का मतलब है कि किसी संभावना के बंटवारे का अनुमान लगाना कितना मुश्किल है. इसके अलावा, एन्ट्रॉपी को इस तरह भी परिभाषित किया जा सकता है कि हर उदाहरण में कितनी जानकारी है. जब किसी रैंडम वैरिएबल की सभी वैल्यू एक जैसी होती हैं, तो डिस्ट्रिब्यूशन में सबसे ज़्यादा एन्ट्रापी होती है.

"0" और "1" जैसी दो संभावित वैल्यू वाले सेट का एन्ट्रापी (उदाहरण के लिए, बाइनरी क्लासिफ़िकेशन समस्या में लेबल) का यह फ़ॉर्मूला है:

  H = -p log p - q log q = -p log p - (1-p) * log (1-p)

कहां:

  • H एन्ट्रॉपी है.
  • p, "1" उदाहरणों का अंश है.
  • q, "0" उदाहरणों का फ़्रैक्शन है. ध्यान दें कि q = (1 - p)
  • आम तौर पर, लॉग को लॉग2 कहा जाता है. इस मामले में, एन्ट्रापी की इकाई बिट होती है.

उदाहरण के लिए, मान लें कि:

  • 100 उदाहरणों में वैल्यू "1" है
  • 300 उदाहरणों में वैल्यू "0" है

इसलिए, एंट्रॉपी की वैल्यू यह है:

  • p = 0.25
  • q = 0.75
  • H = (-0.25)log2(0.25) - (0.75)log2(0.75) = 0.81 बिट प्रति उदाहरण

पूरी तरह से बैलेंस किए गए सेट (उदाहरण के लिए, 200 "0" और 200 "1") के लिए, हर उदाहरण में 1.0 बिट का एन्ट्रापी होगा. किसी सेट के असंतुलित होने पर, उसका एन्ट्रापी 0.0 की ओर बढ़ता है.

फ़ैसला लेने वाले ट्री में, एन्ट्रापी से जानकारी हासिल करने में मदद मिलती है. इससे स्प्लिटर को, क्लासिफ़िकेशन के फ़ैसला लेने वाले ट्री के बढ़ने के दौरान शर्तें चुनने में मदद मिलती है.

एन्ट्रॉपी की तुलना इनसे करें:

एन्ट्रोपी को अक्सर शैनन का एन्ट्रोपी कहा जाता है.

ज़्यादा जानकारी के लिए, डिसीज़न फ़ॉरेस्ट कोर्स में संख्यात्मक सुविधाओं के साथ बाइनरी क्लासिफ़िकेशन के लिए एग्ज़ैक्ट स्प्लिटर देखें.

वातावरण

#rl

रीइंफ़ोर्समेंट लर्निंग में, वह दुनिया जिसमें एजेंट होता है और एजेंट को उस दुनिया की स्थिति को देखने की अनुमति मिलती है. उदाहरण के लिए, दिखाया गया वर्ल्ड, शतरंज जैसा गेम हो सकता है या कोई पहेली जैसी दुनिया हो सकती है. जब एजेंट, एनवायरमेंट पर कोई कार्रवाई लागू करता है, तो एनवायरमेंट एक स्टेटस से दूसरे स्टेटस में ट्रांज़िशन करता है.

एपिसोड

#rl

रिनफ़ोर्समेंट लर्निंग में, एजेंट के किसी एनवायरमेंट को सीखने के लिए, बार-बार किए गए हर प्रयास को एलिमेंट कहा जाता है.

epoch

#fundamentals

पूरे ट्रेनिंग सेट पर पूरा ट्रेनिंग पास, ताकि हर उदाहरण को एक बार प्रोसेस किया जा सके.

एक एपिक, N/बैच साइज़ के हिसाब से, इटरेशन की ट्रेनिंग दिखाता है. यहां N, उदाहरणों की कुल संख्या है.

उदाहरण के लिए, मान लें कि:

  • डेटासेट में 1,000 उदाहरण हैं.
  • बैच में 50 उदाहरण होते हैं.

इसलिए, एक एपॉच के लिए 20 बार दोहराना ज़रूरी है:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में लीनियर रिग्रेशन: हाइपरपैरामीटर देखें.

एप्सिलॉन ग्रैडी नीति

#rl

रीइंफ़ोर्समेंट लर्निंग में, ऐसी नीति जो एप्सिलॉन संभावना के साथ रैंडम नीति या किसी दूसरी स्थिति में लालची नीति का पालन करती है. उदाहरण के लिए, अगर एप्सिलॉन 0.9 है, तो नीति 90% समय तक रैंडम नीति का पालन करती है और 10% समय तक लालची नीति का पालन करती है.

एल्गोरिदम, एपिसोड के हिसाब से, एप्सिलॉन की वैल्यू को कम करता है, ताकि वह किसी रैंडम नीति से, लालची नीति पर स्विच कर सके. नीति में बदलाव करके, एजेंट पहले अपने आस-पास के माहौल को रैंडम तरीके से एक्सप्लोर करता है और फिर रैंडम एक्सप्लोरेशन के नतीजों का फ़ायदा उठाता है.

समान अवसर

#fairness

फ़ेयरनेस मेट्रिक, जिससे यह पता चलता है कि कोई मॉडल, संवेदनशील एट्रिब्यूट की सभी वैल्यू के लिए, मनचाहा नतीजा बराबर अच्छी तरह से अनुमान लगा रहा है या नहीं. दूसरे शब्दों में, अगर किसी मॉडल के लिए पॉज़िटिव क्लास का नतीजा पाना ज़रूरी है, तो सभी ग्रुप के लिए ट्रू पॉज़िटिव रेट एक जैसा होना चाहिए.

सभी को बराबर अवसर मिलना, समान संभावनाओं से जुड़ा है. इसके लिए ज़रूरी है कि सभी ग्रुप के लिए, सही और गलत पॉज़िटिव रेट, दोनों एक जैसे हों.

मान लें कि Glubbdubdrib University, Lilliputians और Brobdingnagians दोनों को, गणित के ज़्यादा कठिन प्रोग्राम में शामिल करती है. लिलिपुटियन के माध्यमिक स्कूलों में, गणित की कक्षाओं के लिए बेहतर पाठ्यक्रम उपलब्ध कराया जाता है. साथ ही, ज़्यादातर छात्र-छात्राएं यूनिवर्सिटी प्रोग्राम के लिए ज़रूरी शर्तें पूरी करते हैं. ब्रॉबडिंगन के सेकंडरी स्कूलों में, गणित की क्लास नहीं दी जाती हैं. इस वजह से, वहां के बहुत कम छात्र-छात्राएं क्वालीफ़ाइड होते हैं. "प्रवेश दिया गया" लेबल के लिए, सभी को समान अवसर मिलते हैं. यह बात तब लागू होती है, जब किसी देश (लिलिपुटियन या ब्रॉबडिंगनागियन) के लिए, ज़रूरी शर्तें पूरी करने वाले सभी छात्र-छात्राओं को समान रूप से प्रवेश दिया जाता है. भले ही, वे लिलिपुटियन हों या ब्रॉबडिंगनागियन.

उदाहरण के लिए, मान लें कि 100 Lilliputians और 100 Brobdingnagians ने Glubbdubdrib University में आवेदन किया है और दाखिले के फ़ैसले इस तरह किए गए हैं:

टेबल 1. लिलिपुटियन आवेदक (90% क्वालिफ़ाई हैं)

  क्वालिफ़ाई हुई अयोग्य
स्वीकार किया गया 45 3
अस्वीकार किया गया 45 7
कुल 90 10
ज़रूरी शर्तें पूरी करने वाले छात्र-छात्राओं का प्रतिशत: 45/90 = 50%
शर्तें पूरी न करने वाले छात्र-छात्राओं का प्रतिशत: 7/10 = 70%
लिलिपुटियन छात्र-छात्राओं का कुल प्रतिशत: (45+3)/100 = 48%

 

टेबल 2. Brobdingnagian आवेदक (10% क्वालिफ़ाई हैं):

  क्वालिफ़ाई हुई अयोग्य
स्वीकार किया गया 5 9
अस्वीकार किया गया 5 81
कुल 10 90
ज़रूरी शर्तें पूरी करने वाले छात्र-छात्राओं का प्रतिशत: 5/10 = 50%
शर्तें पूरी न करने वाले छात्र-छात्राओं का प्रतिशत: 81/90 = 90%
ब्रॉबडिंगनागियन छात्र-छात्राओं का कुल प्रतिशत: (5+9)/100 = 14%

ऊपर दिए गए उदाहरणों से पता चलता है कि ज़रूरी शर्तें पूरी करने वाले सभी छात्र-छात्राओं को बराबर अवसर मिलते हैं. ऐसा इसलिए है, क्योंकि ज़रूरी शर्तें पूरी करने वाले Lilliputians और Brobdingnagians, दोनों के लिए 50% संभावना होती है कि उन्हें स्वीकार किया जाए.

सभी को समान अवसर मिलना ज़रूरी है. हालांकि, निष्पक्षता की इन दो मेट्रिक के लिए ज़रूरी शर्तें पूरी नहीं की गई हैं:

  • डेमोग्राफ़िक पैरिटी: Lilliputians और Brobdingnagians को यूनिवर्सिटी में अलग-अलग दरों पर स्वीकार किया जाता है; 48% Lilliputians छात्र-छात्राओं को स्वीकार किया जाता है, लेकिन सिर्फ़ 14% Brobdingnagian छात्र-छात्राओं को स्वीकार किया जाता है.
  • समान संभावनाएं: ज़रूरी शर्तें पूरी करने वाले लिलिपुटियन और ब्रॉबडिंगनागियन, दोनों छात्र-छात्राओं को स्वीकार किए जाने की संभावना एक जैसी होती है. हालांकि, यह शर्त पूरी नहीं होती कि ज़रूरी शर्तें पूरी न करने वाले लिलिपुटियन और ब्रॉबडिंगनागियन, दोनों छात्र-छात्राओं को अस्वीकार किए जाने की संभावना एक जैसी होती है. ज़रूरी शर्तें पूरी न करने वाले Lilliputians के आवेदन अस्वीकार होने की दर 70% है, जबकि ज़रूरी शर्तें पूरी न करने वाले Brobdingnagians के आवेदन अस्वीकार होने की दर 90% है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में निष्पक्षता: सभी को बराबर अवसर देखें.

बराबर ऑड

#fairness

यह मेट्रिक यह आकलन करती है कि कोई मॉडल, संवेदनशील एट्रिब्यूट की सभी वैल्यू के लिए, नतीजों का अनुमान एक जैसा अच्छी तरह से लगा रहा है या नहीं. यह मेट्रिक, पॉज़िटिव क्लास और नेगेटिव क्लास, दोनों के लिए एक जैसा अनुमान लगाती है, न कि सिर्फ़ किसी एक क्लास के लिए. दूसरे शब्दों में, सभी ग्रुप के लिए ट्रू पॉज़िटिव रेट और फ़ॉल्स नेगेटिव रेट, दोनों एक जैसे होने चाहिए.

सभी को बराबर मौका, सभी को बराबर अवसर से जुड़ा है. यह सिर्फ़ एक क्लास (पॉज़िटिव या नेगेटिव) के लिए, गड़बड़ी की दरों पर फ़ोकस करता है.

उदाहरण के लिए, मान लें कि Glubbdubdrib University ने गणित के एक कठिन प्रोग्राम में, Lilliputians और Brobdingnagians, दोनों को स्वीकार किया है. लिलिपुटियन के सेकंडरी स्कूलों में, मैथ की कक्षाओं का बेहतर पाठ्यक्रम उपलब्ध कराया जाता है. साथ ही, ज़्यादातर छात्र-छात्राएं यूनिवर्सिटी प्रोग्राम के लिए ज़रूरी शर्तें पूरी करते हैं. ब्रॉबडिंगन के सेकंडरी स्कूलों में, गणित की क्लास नहीं होतीं. इस वजह से, वहां के बहुत कम छात्र-छात्राएं क्वालीफ़ाई कर पाते हैं. समान अवसरों की शर्त तब पूरी होती है, जब कोई भी आवेदक, चाहे वह छोटा हो या बड़ा, ज़रूरी शर्तें पूरी करता हो, तो उसे प्रोग्राम में शामिल होने की बराबर संभावना होती है. साथ ही, अगर वह ज़रूरी शर्तें पूरी नहीं करता है, तो उसे अस्वीकार किए जाने की बराबर संभावना होती है.

मान लें कि 100 लिलिपुटियन और 100 ब्रॉबडिंगनागियन, ग्लब्बडब्रिब यूनिवर्सिटी में आवेदन करते हैं. साथ ही, दाखिले के फ़ैसले इस तरह लिए जाते हैं:

टेबल 3. लिलिपुटियन आवेदक (90% क्वालिफ़ाई हैं)

  क्वालिफ़ाई हुई अयोग्य
स्वीकार किया गया 45 2
अस्वीकार किया गया 45 8
कुल 90 10
ज़रूरी शर्तें पूरी करने वाले छात्र-छात्राओं का प्रतिशत: 45/90 = 50%
शर्तें पूरी न करने वाले छात्र-छात्राओं का प्रतिशत: 8/10 = 80%
लिलिपुटियन छात्र-छात्राओं का कुल प्रतिशत: (45+2)/100 = 47%

 

टेबल 4. Brobdingnagian आवेदक (10% क्वालिफ़ाई हैं):

  क्वालिफ़ाई हुई अयोग्य
स्वीकार किया गया 5 18
अस्वीकार किया गया 5 72
कुल 10 90
ज़रूरी शर्तें पूरी करने वाले छात्र-छात्राओं का प्रतिशत: 5/10 = 50%
शर्तें पूरी न करने वाले छात्र-छात्राओं का प्रतिशत: 72/90 = 80%
ब्रॉबडिंगनागियन छात्र-छात्राओं का कुल प्रतिशत: (5+18)/100 = 23%

यहां सभी के लिए संभावनाएं बराबर हैं, क्योंकि ज़रूरी शर्तें पूरी करने वाले Lilliputian और Brobdingnagian, दोनों के लिए 50% संभावना है कि उन्हें स्वीकार किया जाए. साथ ही, ज़रूरी शर्तें पूरी न करने वाले Lilliputian और Brobdingnagian, दोनों के लिए 80% संभावना है कि उन्हें अस्वीकार किया जाए.

"सुपरवाइज़्ड लर्निंग में अवसर की समानता" में, बराबर संभावनाओं की आधिकारिक तौर पर परिभाषा इस तरह दी गई है: "अगर Ŷ और A, Y के आधार पर स्वतंत्र हैं, तो प्रिडिक्टर Ŷ, सुरक्षित एट्रिब्यूट A और नतीजे Y के लिए बराबर संभावनाओं को पूरा करता है."

Estimator

#TensorFlow

TensorFlow का एक ऐसा एपीआई जिसका इस्तेमाल नहीं किया जा सकता. एस्टिमेटर्स के बजाय, tf.keras का इस्तेमाल करें.

evals

#language
#generativeAI

इसका इस्तेमाल मुख्य रूप से एलएलएम के आकलन के लिए किया जाता है. ज़्यादा जानकारी के लिए, evals किसी भी तरह के इवैल्यूएशन का छोटा नाम है.

आकलन

#language
#generativeAI

किसी मॉडल की क्वालिटी को मेज़र करने या अलग-अलग मॉडल की तुलना करने की प्रोसेस.

सुपरवाइज़्ड मशीन लर्निंग मॉडल का आकलन करने के लिए, आम तौर पर पुष्टि करने वाले सेट और टेस्ट सेट के आधार पर इसका आकलन किया जाता है. एलएलएम का आकलन करने के लिए, आम तौर पर क्वालिटी और सुरक्षा से जुड़े बड़े आकलन किए जाते हैं.

उदाहरण

#fundamentals

सुविधाओं की एक पंक्ति की वैल्यू और हो सकता है कि एक लेबल भी हो. सुपरवाइज़्ड लर्निंग के उदाहरणों को दो मुख्य कैटगरी में बांटा जा सकता है:

  • लेबल किए गए उदाहरण में एक या उससे ज़्यादा सुविधाएं और एक लेबल होता है. लेबल किए गए उदाहरणों का इस्तेमाल, ट्रेनिंग के दौरान किया जाता है.
  • बिना लेबल वाला उदाहरण में एक या एक से ज़्यादा फ़ीचर होते हैं, लेकिन कोई लेबल नहीं होता. अनुमान लगाने के दौरान, बिना लेबल वाले उदाहरणों का इस्तेमाल किया जाता है.

उदाहरण के लिए, मान लें कि आपको यह पता करना है कि मौसम की स्थितियों का, छात्र/छात्रा के टेस्ट के स्कोर पर क्या असर पड़ता है. इसके लिए, आपको एक मॉडल को ट्रेनिंग देनी होगी. यहां लेबल किए गए तीन उदाहरण दिए गए हैं:

सुविधाएं लेबल
तापमान नमी दबाव टेस्ट का स्कोर
15 47 998 अच्छा
19 34 1020 बहुत बढ़िया
18 92 1012 खराब

यहां लेबल नहीं किए गए तीन उदाहरण दिए गए हैं:

तापमान नमी दबाव  
12 62 1014  
21 47 1017  
19 41 1021  

आम तौर पर, डेटासेट की लाइन, किसी उदाहरण का रॉ सोर्स होती है. इसका मतलब है कि आम तौर पर, किसी उदाहरण में डेटासेट के कॉलम का सबसेट शामिल होता है. इसके अलावा, उदाहरण में सिंथेटिक फ़ीचर भी शामिल हो सकती हैं. जैसे, फ़ीचर क्रॉस.

ज़्यादा जानकारी के लिए, मशीन लर्निंग के बारे में जानकारी देने वाले कोर्स में सुपरवाइज़्ड लर्निंग देखें.

अनुभव को फिर से चलाना

#rl

रिनफ़ोर्समेंट लर्निंग में, DQN तकनीक का इस्तेमाल, ट्रेनिंग डेटा में समय के साथ होने वाले बदलावों को कम करने के लिए किया जाता है. एजेंट, रीप्ले बफ़र में स्टेटस ट्रांज़िशन को सेव करता है. इसके बाद, ट्रेनिंग डेटा बनाने के लिए रीप्ले बफ़र से ट्रांज़िशन का सैंपल लेता है.

एक्सपेरिमेंटर बायस

#fairness

एक पक्ष की पुष्टि करना देखें.

एक्सप्लॉडिंग ग्रेडिएंट की समस्या

#seq

डीप न्यूरल नेटवर्क (खास तौर पर, रीकurrent न्यूरल नेटवर्क) में ग्रेडिएंट का अचानक बहुत ज़्यादा (ऊंचा) हो जाना. तेज़ ग्रेडिएंट की वजह से, डीप न्यूरल नेटवर्क में हर नोड के वेट में अक्सर काफ़ी ज़्यादा अपडेट होते हैं.

एक्सप्लॉडिंग ग्रेडिएंट की समस्या वाले मॉडल को ट्रेन करना मुश्किल या असंभव हो जाता है. ग्रेडिएंट क्लिपिंग की मदद से, इस समस्या को कम किया जा सकता है.

वैनिशिंग ग्रेडिएंट की समस्या से तुलना करें.

F

F1

बाइनरी क्लासिफ़िकेशन वाली "रोल-अप" मेट्रिक, जो प्रिसिज़न और रीकॉल, दोनों पर निर्भर करती है. यहां फ़ॉर्मूला दिया गया है:

$$F{_1} = \frac{\text{2 * precision * recall}} {\text{precision + recall}}$$

तथ्यों का सही होना

#generativeAI

मशीन लर्निंग की दुनिया में, ऐसी प्रॉपर्टी जो किसी ऐसे मॉडल के बारे में बताती है जिसका आउटपुट असल दुनिया पर आधारित होता है. तथ्यों के आधार पर जानकारी देना एक मेट्रिक नहीं, बल्कि एक कॉन्सेप्ट है. उदाहरण के लिए, मान लें कि आपने लार्ज लैंग्वेज मॉडल को यह प्रॉम्प्ट भेजा है:

टेबल सॉल्ट का केमिकल फ़ॉर्मूला क्या है?

तथ्यों को ऑप्टिमाइज़ करने वाला मॉडल इस तरह जवाब देगा:

NaCl

यह मानना आसान है कि सभी मॉडल, तथ्यों पर आधारित होने चाहिए. हालांकि, कुछ प्रॉम्प्ट की वजह से जनरेटिव एआई मॉडल को तथ्यों के बजाय क्रिएटिविटी को ऑप्टिमाइज़ करना चाहिए. जैसे:

मुझे अंतरिक्ष यात्री और कैटरपिलर के बारे में कोई लिमरिक सुनाओ.

ऐसा हो सकता है कि लिमरिक में दी गई जानकारी असल में सही न हो.

ज़मीन से जुड़े होने के साथ कंट्रास्ट करें.

निष्पक्षता से जुड़ी शर्त

#fairness
किसी एल्गोरिदम पर पाबंदी लगाना, ताकि यह पक्का किया जा सके कि निष्पक्षता की एक या उससे ज़्यादा परिभाषाएं पूरी की गई हैं. निष्पक्षता से जुड़ी पाबंदियों के उदाहरण:

निष्पक्षता मेट्रिक

#fairness

"निष्पक्षता" की गणितीय परिभाषा, जिसे मेज़र किया जा सकता है. आम तौर पर इस्तेमाल होने वाली निष्पक्षता मेट्रिक में ये शामिल हैं:

निष्पक्षता की कई मेट्रिक एक-दूसरे के साथ काम नहीं करतीं. निष्पक्षता की मेट्रिक के साथ काम न करने की समस्या देखें.

फ़ॉल्स निगेटिव (FN)

#fundamentals

ऐसा उदाहरण जिसमें मॉडल ने गलती से नेगेटिव क्लास का अनुमान लगाया है. उदाहरण के लिए, मॉडल का अनुमान है कि कोई ईमेल मैसेज स्पैम नहीं है (नेगेटिव क्लास), लेकिन वह ईमेल मैसेज असल में स्पैम है.

फ़ॉल्स निगेटिव रेट

असल पॉज़िटिव उदाहरणों का अनुपात, जिनके लिए मॉडल ने गलत तरीके से नेगेटिव क्लास का अनुमान लगाया. यहां दिए गए फ़ॉर्मूला से, गलत नतीजे मिलने की दर का हिसाब लगाया जाता है:

$$\text{false negative rate} = \frac{\text{false negatives}}{\text{false negatives} + \text{true positives}}$$

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में थ्रेशोल्ड और भ्रम वाली मैट्रिक देखें.

फ़ॉल्स पॉज़िटिव (FP)

#fundamentals

ऐसा उदाहरण जिसमें मॉडल ने गलती से पॉज़िटिव क्लास का अनुमान लगाया है. उदाहरण के लिए, मॉडल का अनुमान है कि कोई ईमेल मैसेज स्पैम (पॉज़िटिव क्लास) है, लेकिन वह ईमेल मैसेज वाकई स्पैम नहीं है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में थ्रेशोल्ड और भ्रम वाली मैट्रिक देखें.

फ़ॉल्स पॉज़िटिव रेट (एफ़पीआर)

#fundamentals

असल नेगेटिव उदाहरणों का अनुपात, जिनके लिए मॉडल ने गलत तरीके से पॉज़िटिव क्लास का अनुमान लगाया. नीचे दिए गए फ़ॉर्मूला से, गलत नतीजे मिलने की दर का हिसाब लगाया जाता है:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

फ़ॉल्स पॉज़िटिव रेट, आरओसी कर्व में एक्स-ऐक्सिस होता है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में क्लासिफ़िकेशन: आरओसी और AUC देखें.

सुविधा

#fundamentals

मशीन लर्निंग मॉडल का इनपुट वैरिएबल. उदाहरण में एक या उससे ज़्यादा सुविधाएं शामिल होती हैं. उदाहरण के लिए, मान लें कि आपको किसी मॉडल को ट्रेनिंग देनी है, ताकि यह पता लगाया जा सके कि मौसम की स्थितियों का छात्र/छात्रा के टेस्ट के स्कोर पर क्या असर पड़ता है. यहां दी गई टेबल में तीन उदाहरण दिए गए हैं. इनमें से हर उदाहरण में तीन सुविधाएं और एक लेबल है:

सुविधाएं लेबल
तापमान नमी दबाव टेस्ट का स्कोर
15 47 998 92
19 34 1020 84
18 92 1012 87

लेबल के साथ कंट्रास्ट करें.

ज़्यादा जानकारी के लिए, मशीन लर्निंग के बारे में जानकारी वाले कोर्स में सुपरवाइज़्ड लर्निंग देखें.

सुविधाओं के बीच क्रॉस

#fundamentals

ऐसी एआई से जनरेट की गई सुविधा जिसे कैटगरी या बकेट वाली सुविधाओं को "क्रॉस करने" से बनाया जाता है.

उदाहरण के लिए, "मनोभाव का अनुमान लगाने" वाले मॉडल पर विचार करें, जो इन चार में से किसी एक बकेट में तापमान दिखाता है:

  • freezing
  • chilly
  • temperate
  • warm

साथ ही, हवा की रफ़्तार को इनमें से किसी एक बकेट में दिखाता है:

  • still
  • light
  • windy

फ़ीचर क्रॉस के बिना, लीनियर मॉडल, पिछली सात अलग-अलग बकेट में से हर एक पर अलग-अलग ट्रेनिंग देता है. इसलिए, मॉडल को उदाहरण के लिए, freezing के लिए अलग से ट्रेनिंग दी जाती है, जबकि उदाहरण के लिए, windy के लिए अलग से ट्रेनिंग दी जाती है.

इसके अलावा, तापमान और हवा की स्पीड की सुविधा का क्रॉस भी बनाया जा सकता है. इस सिंथेटिक सुविधा की ये 12 संभावित वैल्यू होंगी:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

फ़ीचर क्रॉस की मदद से, मॉडल को freezing-windy दिन और freezing-still दिन के मूड में अंतर पता चल सकता है.

अगर आपने दो ऐसी सुविधाओं से सिंथेटिक सुविधा बनाई है जिनमें हर सुविधा के लिए कई अलग-अलग बकेट हैं, तो बनाई गई सुविधा के क्रॉस में संभावित कॉम्बिनेशन की संख्या बहुत ज़्यादा होगी. उदाहरण के लिए, अगर एक फ़ीचर में 1,000 बकेट हैं और दूसरी फ़ीचर में 2,000 बकेट हैं, तो फ़ीचर क्रॉस में 2,000,000 बकेट होंगे.

फ़ॉर्मल तौर पर, क्रॉस एक कार्टेज़ियन प्रॉडक्ट है.

फ़ीचर क्रॉस का इस्तेमाल ज़्यादातर लीनियर मॉडल के साथ किया जाता है. साथ ही, इनका इस्तेमाल न्यूरल नेटवर्क के साथ बहुत कम किया जाता है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में कैटगरी वाला डेटा: फ़ीचर क्रॉस देखें.

फ़ीचर इंजीनियरिंग

#fundamentals
#TensorFlow

यह एक ऐसी प्रोसेस है जिसमें ये चरण शामिल होते हैं:

  1. यह तय करना कि मॉडल को ट्रेनिंग देने के लिए, किन सुविधाओं का इस्तेमाल किया जा सकता है.
  2. डेटासेट के रॉ डेटा को उन सुविधाओं के बेहतर वर्शन में बदलना.

उदाहरण के लिए, आपके हिसाब से temperature एक काम की सुविधा हो सकती है. इसके बाद, बकेट के साथ एक्सपेरिमेंट किया जा सकता है, ताकि यह ऑप्टिमाइज़ किया जा सके कि मॉडल अलग-अलग temperature रेंज से क्या सीख सकता है.

फ़ीचर इंजीनियरिंग को कभी-कभी फ़ीचर एक्सट्रैक्शन या फ़ीचराइज़ेशन भी कहा जाता है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में न्यूमेरिकल डेटा: कोई मॉडल, फ़ीचर वैक्टर का इस्तेमाल करके डेटा को कैसे डालता है देखें.

फ़ीचर एक्सट्रैक्शन

ओवरलोड किया गया ऐसा शब्द जिसकी इनमें से कोई एक परिभाषा हो:

सुविधाओं की अहमियत

#df

वैरिएबल की अहमियत का दूसरा नाम.

सुविधाओं का सेट

#fundamentals

आपका मशीन लर्निंग मॉडल, सुविधाओं के इस ग्रुप पर ट्रेन होता है. उदाहरण के लिए, पिन कोड, प्रॉपर्टी का साइज़, और प्रॉपर्टी की स्थिति, मकान की कीमत का अनुमान लगाने वाले मॉडल के लिए, एक आसान फ़ीचर सेट हो सकता है.

सुविधा की खास बातें

#TensorFlow

tf.Example प्रोटोकॉल बफ़र से features डेटा निकालने के लिए ज़रूरी जानकारी के बारे में बताता है. क्वेरी के लिए इस्तेमाल किया गया प्रोटोकॉल बफ़र, डेटा का सिर्फ़ एक कंटेनर होता है.इसलिए, आपको इन चीज़ों की जानकारी देनी होगी:

  • वह डेटा जिसे एक्सट्रैक्ट करना है (यानी, सुविधाओं के लिए कुंजियां)
  • डेटा टाइप (उदाहरण के लिए, फ़्लोट या int)
  • लंबाई (तय या बदलाव की जा सकने वाली)

फ़ीचर वेक्टर

#fundamentals

feature वैल्यू का कलेक्शन, जिसमें उदाहरण शामिल है. फ़ीचर वेक्टर, ट्रेनिंग और अनुमान के दौरान इनपुट किया जाता है. उदाहरण के लिए, दो अलग-अलग फ़ीचर वाले मॉडल के लिए फ़ीचर वेक्टर यह हो सकता है:

[0.92, 0.56]

चार लेयर: इनपुट लेयर, दो छिपी हुई लेयर, और एक आउटपुट लेयर.
          इनपुट लेयर में दो नोड हैं. एक में वैल्यू 0.92 है और दूसरे में वैल्यू 0.56 है.

हर उदाहरण, फ़ीचर वेक्टर के लिए अलग-अलग वैल्यू देता है. इसलिए, अगले उदाहरण के लिए फ़ीचर वेक्टर कुछ ऐसा हो सकता है:

[0.73, 0.49]

फ़ीचर इंजीनियरिंग से यह तय होता है कि फ़ीचर वेक्टर में फ़ीचर को कैसे दिखाया जाए. उदाहरण के लिए, पांच संभावित वैल्यू वाली बाइनरी कैटगरी वाली सुविधा को वन-हॉट कोड के साथ दिखाया जा सकता है. इस मामले में, किसी उदाहरण के लिए फ़ीचर वेक्टर के हिस्से में चार शून्य और तीसरे स्थान पर एक 1.0 होगा, जैसा कि यहां बताया गया है:

[0.0, 0.0, 1.0, 0.0, 0.0]

एक और उदाहरण के लिए, मान लें कि आपके मॉडल में तीन सुविधाएं हैं:

  • एक बाइनरी कैटगरी वाली ऐसी सुविधा जिसमें पांच संभावित वैल्यू होती हैं. इन्हें एक-हॉट एन्कोडिंग के साथ दिखाया जाता है. उदाहरण के लिए: [0.0, 1.0, 0.0, 0.0, 0.0]
  • एक और बाइनरी कैटगरी वाली सुविधा, जिसमें तीन संभावित वैल्यू हैं. इन्हें एक-हॉट एन्कोडिंग के साथ दिखाया गया है. उदाहरण के लिए: [0.0, 0.0, 1.0]
  • फ़्लोटिंग-पॉइंट वाली कोई सुविधा; उदाहरण के लिए: 8.3.

इस मामले में, हर उदाहरण के लिए फ़ीचर वेक्टर को नौ वैल्यू से दिखाया जाएगा. ऊपर दी गई सूची में उदाहरण के तौर पर दी गई वैल्यू के हिसाब से, फ़ीचर वेक्टर इस तरह का होगा:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में न्यूमेरिकल डेटा: कोई मॉडल, फ़ीचर वैक्टर का इस्तेमाल करके डेटा को कैसे डालता है देखें.

फ़ीचराइज़ेशन

किसी इनपुट सोर्स, जैसे कि दस्तावेज़ या वीडियो से सुविधाओं को निकालने और उन सुविधाओं को फ़ीचर वेक्टर में मैप करने की प्रोसेस.

कुछ एमएल विशेषज्ञ, फ़ीचराइज़ेशन का इस्तेमाल फ़ीचर इंजीनियरिंग या फ़ीचर एक्सट्रैक्शन के लिए करते हैं.

फ़ेडरेटेड लर्निंग

डिस्ट्रिब्यूटेड मशीन लर्निंग का एक तरीका, जो स्मार्टफ़ोन जैसे डिवाइसों पर मौजूद उदाहरणों का इस्तेमाल करके, मशीन लर्निंग मॉडल को ट्रेन करता है. फ़ेडरेटेड लर्निंग में, डिवाइसों का एक सबसेट, मौजूदा मॉडल को केंद्रीय समन्वय सर्वर से डाउनलोड करता है. मॉडल को बेहतर बनाने के लिए, डिवाइसों पर सेव किए गए उदाहरणों का इस्तेमाल किया जाता है. इसके बाद, डिवाइसों से मॉडल में हुए सुधारों को कोऑर्डिनेट करने वाले सर्वर पर अपलोड किया जाता है. हालांकि, ट्रेनिंग के उदाहरणों को अपलोड नहीं किया जाता. इन सुधारों को अन्य अपडेट के साथ एग्रीगेट करके, बेहतर ग्लोबल मॉडल बनाया जाता है. एग्रीगेशन के बाद, डिवाइसों से कैलकुलेट किए गए मॉडल अपडेट की ज़रूरत नहीं होती और उन्हें हटाया जा सकता है.

ट्रेनिंग के उदाहरण कभी अपलोड नहीं किए जाते, इसलिए फ़ेडरेटेड लर्निंग, ज़रूरी डेटा इकट्ठा करने और डेटा को कम करने के निजता सिद्धांतों का पालन करता है.

फ़ेडरेटेड लर्निंग के बारे में ज़्यादा जानने के लिए, यह ट्यूटोरियल देखें.

फ़ीडबैक लूप

#fundamentals

मशीन लर्निंग में, ऐसी स्थिति जिसमें किसी मॉडल के अनुमान से, उसी मॉडल या किसी दूसरे मॉडल के लिए ट्रेनिंग डेटा पर असर पड़ता है. उदाहरण के लिए, फ़िल्मों के सुझाव देने वाले मॉडल से, लोगों की पसंद पर असर पड़ेगा. इससे, फ़िल्म के सुझाव देने वाले बाद के मॉडल पर भी असर पड़ेगा.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में प्रोडक्शन के लिए एमएल सिस्टम: पूछे जाने वाले सवाल देखें.

फ़ीडफ़ॉरवर्ड न्यूरल नेटवर्क (एफ़एफ़एन)

ऐसा न्यूरल नेटवर्क जिसमें साइकल या बार-बार होने वाले कनेक्शन न हों. उदाहरण के लिए, डीप न्यूरल नेटवर्क, फ़ीडफ़ॉरवर्ड न्यूरल नेटवर्क होते हैं. रीकurrent neural networks के साथ तुलना करें, जो साइकल वाले होते हैं.

फ़्यू-शॉट लर्निंग

मशीन लर्निंग का एक तरीका, जिसका इस्तेमाल अक्सर ऑब्जेक्ट की कैटगरी तय करने के लिए किया जाता है. इसे सिर्फ़ कुछ ट्रेनिंग उदाहरणों से, बेहतर क्लासिफ़ायर को ट्रेन करने के लिए डिज़ाइन किया गया है.

वन-शॉट लर्निंग और ज़ीरो-शॉट लर्निंग के बारे में भी जानें.

उदाहरण के साथ डाले गए प्रॉम्प्ट

#language
#generativeAI

ऐसा प्रॉम्प्ट जिसमें एक से ज़्यादा (कुछ) उदाहरण शामिल हों. इनसे पता चलता हो कि लार्ज लैंग्वेज मॉडल को कैसे जवाब देना चाहिए. उदाहरण के लिए, यहां दिए गए लंबे प्रॉम्प्ट में दो उदाहरण दिए गए हैं. इनसे पता चलता है कि लार्ज लैंग्वेज मॉडल को क्वेरी का जवाब देने का तरीका कैसे बताया जाता है.

एक प्रॉम्प्ट के हिस्से नोट
चुने गए देश की आधिकारिक मुद्रा क्या है? वह सवाल जिसका जवाब आपको एलएलएम से चाहिए.
फ़्रांस: यूरो एक उदाहरण.
यूनाइटेड किंगडम: पाउंड स्टर्लिंग एक और उदाहरण.
भारत: असल क्वेरी.

आम तौर पर, फ़्यू-शॉट प्रॉम्प्टिंग से, ज़ीरो-शॉट प्रॉम्प्टिंग और वन-शॉट प्रॉम्प्टिंग की तुलना में बेहतर नतीजे मिलते हैं. हालांकि, उदाहरण के साथ डाले गए प्रॉम्प्ट के लिए, लंबे प्रॉम्प्ट की ज़रूरत होती है.

उदाहरण के साथ डाले गए प्रॉम्प्ट, फ़ew-शॉट लर्निंग का एक फ़ॉर्म है. इसे प्रॉम्प्ट-आधारित लर्निंग पर लागू किया जाता है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में प्रॉम्प्ट को बेहतर बनाने की प्रोसेस देखें.

वायलिन

#language

Python-first कॉन्फ़िगरेशन लाइब्रेरी, जो बिना किसी कोड या इन्फ़्रास्ट्रक्चर के फ़ंक्शन और क्लास की वैल्यू सेट करती है. Pax और अन्य एमएल कोडबेस के मामले में, ये फ़ंक्शन और क्लास मॉडल और ट्रेनिंग के हाइपरपैरामीटर दिखाते हैं.

Fiddle के हिसाब से, मशीन लर्निंग कोडबेस को आम तौर पर इनमें बांटा जाता है:

  • लाइब्रेरी कोड, जो लेयर और ऑप्टिमाइज़र तय करता है.
  • डेटासेट "ग्लू" कोड, जो लाइब्रेरी को कॉल करता है और सभी चीज़ों को एक साथ जोड़ता है.

Fiddle, ग्लू कोड के कॉल स्ट्रक्चर को बिना आकलन किए और बदले जा सकने वाले फ़ॉर्मैट में कैप्चर करता है.

फ़ाइन-ट्यूनिंग

#language
#image
#generativeAI

पहले से ट्रेन किए गए मॉडल पर, टास्क के हिसाब से दूसरा ट्रेनिंग पास किया जाता है. इससे, किसी खास इस्तेमाल के उदाहरण के लिए, मॉडल के पैरामीटर को बेहतर बनाया जा सकता है. उदाहरण के लिए, कुछ बड़े लैंग्वेज मॉडल के लिए, ट्रेनिंग का पूरा क्रम इस तरह है:

  1. पहले से ट्रेनिंग: किसी बड़े लैंग्वेज मॉडल को बड़े सामान्य डेटासेट पर ट्रेन करें. जैसे, अंग्रेज़ी भाषा के सभी Wikipedia पेज.
  2. बेहतर बनाना: पहले से ट्रेन किए गए मॉडल को खास टास्क पूरा करने के लिए ट्रेन करना. जैसे, मेडिकल क्वेरी का जवाब देना. आम तौर पर, बेहतर बनाने की प्रोसेस में किसी खास टास्क पर फ़ोकस करने वाले सैकड़ों या हज़ारों उदाहरण शामिल होते हैं.

एक और उदाहरण के तौर पर, बड़ी इमेज वाले मॉडल के लिए ट्रेनिंग का पूरा क्रम इस तरह है:

  1. पहले से ट्रेनिंग: बड़े इमेज मॉडल को सामान्य इमेज डेटासेट पर ट्रेन करें. जैसे, Wikimedia Commons में मौजूद सभी इमेज.
  2. बेहतर बनाना: पहले से ट्रेन किए गए मॉडल को खास टास्क पूरा करने के लिए ट्रेन करें. जैसे, ऑर्का की इमेज जनरेट करना.

रणनीतियों को बेहतर बनाने के लिए, इनमें से किसी भी कॉम्बिनेशन का इस्तेमाल किया जा सकता है:

  • पहले से ट्रेन किए गए मॉडल के मौजूदा पैरामीटर में सभी बदलाव करना. इसे कभी-कभी पूरी तरह से फ़ाइन-ट्यून करना भी कहा जाता है.
  • पहले से ट्रेन किए गए मॉडल के मौजूदा पैरामीटर में से सिर्फ़ कुछ पैरामीटर में बदलाव करना (आम तौर पर, आउटपुट लेयर के सबसे करीब वाली लेयर), जबकि अन्य मौजूदा पैरामीटर में कोई बदलाव न करना (आम तौर पर, इनपुट लेयर के सबसे करीब वाली लेयर). पैरामीटर-बेहतर ट्यूनिंग देखें.
  • ज़्यादा लेयर जोड़ना. आम तौर पर, ये लेयर आउटपुट लेयर के सबसे करीब मौजूद मौजूदा लेयर के ऊपर जोड़ी जाती हैं.

फ़ाइन-ट्यूनिंग, ट्रांसफ़र लर्निंग का एक तरीका है. इसलिए, फ़ाइन-ट्यूनिंग में, पहले से ट्रेन किए गए मॉडल को ट्रेन करने के लिए इस्तेमाल किए गए लॉस फ़ंक्शन या मॉडल टाइप के बजाय, किसी दूसरे लॉस फ़ंक्शन या मॉडल टाइप का इस्तेमाल किया जा सकता है. उदाहरण के लिए, पहले से ट्रेन किए गए बड़े इमेज मॉडल को बेहतर बनाकर, ऐसा रिग्रेशन मॉडल बनाया जा सकता है जो किसी इनपुट इमेज में पक्षियों की संख्या बताता है.

यहां दिए गए शब्दों के साथ, फ़ाइन-ट्यूनिंग की तुलना करें:

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में बेहतर बनाना देखें.

फ़्लैक्स

#language

JAX पर आधारित, बेहतर परफ़ॉर्मेंस वाली डीप लर्निंग के लिए बनाई गई ओपन सोर्स लाइब्रेरी. Flax, न्यूरल नेटवर्क को ट्रेनिंग देने के लिए फ़ंक्शन उपलब्ध कराता है. साथ ही, उनकी परफ़ॉर्मेंस का आकलन करने के तरीके भी उपलब्ध कराता है.

Flaxformer

#language

Transformer पर आधारित, ओपन सोर्स Transformer लाइब्रेरी. इसे मुख्य रूप से, नैचुरल लैंग्वेज प्रोसेसिंग और मल्टीमोडल रिसर्च के लिए डिज़ाइन किया गया है.

गेट को भूल जाओ

#seq

लघु अवधि की मेमोरी सेल का वह हिस्सा जो सेल में जानकारी के फ़्लो को कंट्रोल करता है. फ़ॉरगेट गेट, सेल स्टेटस से किस जानकारी को हटाना है, यह तय करके संदर्भ बनाए रखते हैं.

सफलता का अनुपात

#generativeAI

एमएल मॉडल के जनरेट किए गए टेक्स्ट का आकलन करने वाली मेट्रिक. सफलता का अनुपात, जनरेट किए गए "सफल" टेक्स्ट आउटपुट की संख्या को जनरेट किए गए टेक्स्ट आउटपुट की कुल संख्या से भाग देने पर मिलता है. उदाहरण के लिए, अगर किसी बड़े लैंग्वेज मॉडल ने कोड के 10 ब्लॉक जनरेट किए, जिनमें से पांच सही थे, तो सही ब्लॉक का अनुपात 50% होगा.

हालांकि, आंकड़ों के लिए फ़्रैक्शन ऑफ़ सक्सेस का इस्तेमाल आम तौर पर किया जाता है, लेकिन एमएल में यह मेट्रिक मुख्य रूप से ऐसे टास्क को मेज़र करने के लिए काम की होती है जिनकी पुष्टि की जा सकती है. जैसे, कोड जनरेशन या गणित की समस्याएं.

फ़ुल सॉफ़्टमैक्स

softmax का समानार्थी शब्द.

उम्मीदवारों के सैंपल के साथ तुलना करें.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में न्यूरल नेटवर्क: कई क्लास का वर्गीकरण देखें.

पूरी तरह कनेक्ट की गई लेयर

हाइडन लेयर, जिसमें हर नोड, अगली हाइडन लेयर के हर नोड से जुड़ा होता है.

पूरी तरह से कनेक्टेड लेयर को डेंस लेयर भी कहा जाता है.

फ़ंक्शन ट्रांसफ़ॉर्मेशन

ऐसा फ़ंक्शन जो किसी फ़ंक्शन को इनपुट के तौर पर लेता है और बदले हुए फ़ंक्शन को आउटपुट के तौर पर दिखाता है. JAX, फ़ंक्शन ट्रांसफ़ॉर्मेशन का इस्तेमाल करता है.

G

GAN

जनरेटिव ऐडवर्सरी नेटवर्क का छोटा नाम.

Gemini

#language
#image
#generativeAI

यह नेटवर्क, Google के सबसे बेहतर एआई से बना है. इस नेटवर्क में ये चीज़ें शामिल हैं:

  • Gemini के अलग-अलग मॉडल.
  • Gemini मॉडल के लिए, इंटरैक्टिव बातचीत वाला इंटरफ़ेस. उपयोगकर्ता प्रॉम्प्ट टाइप करते हैं और Gemini उन प्रॉम्प्ट का जवाब देता है.
  • Gemini के अलग-अलग एपीआई.
  • Gemini मॉडल पर आधारित कारोबार के लिए अलग-अलग प्रॉडक्ट. उदाहरण के लिए, Google Cloud के लिए Gemini.

Gemini मॉडल

#language
#image
#generativeAI

Google के सबसे आधुनिक ट्रांसफ़ॉर्मर-आधारित मल्टीमोडल मॉडल. Gemini मॉडल को खास तौर पर, एजेंट के साथ इंटिग्रेट करने के लिए डिज़ाइन किया गया है.

उपयोगकर्ता, Gemini मॉडल के साथ कई तरीकों से इंटरैक्ट कर सकते हैं. जैसे, इंटरैक्टिव डायलॉग इंटरफ़ेस और SDKs की मदद से.

सामान्यीकरण

#fundamentals

मॉडल की, नए और पहले कभी न देखे गए डेटा के आधार पर सटीक अनुमान लगाने की क्षमता. सामान्य नतीजे देने वाला मॉडल, ओवरफ़िटिंग वाले मॉडल के उलट होता है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में जनरलाइज़ेशन देखें.

सामान्यीकरण कर्व

#fundamentals

इटरेशन की संख्या के फ़ंक्शन के तौर पर, ट्रेनिंग लॉस और पुष्टि करने से जुड़ा लॉस, दोनों का प्लॉट.

सामान्यीकरण कर्व की मदद से, ओवरफ़िटिंग का पता लगाया जा सकता है. उदाहरण के लिए, नीचे दिया गया जनरलाइज़ेशन कर्व, ओवरफ़िट होने का सुझाव देता है, क्योंकि पुष्टि करने से जुड़ा नुकसान, आखिरकार ट्रेनिंग के नुकसान से काफ़ी ज़्यादा हो जाता है.

कार्टिज़न ग्राफ़, जिसमें y-ऐक्सिस को लॉस और x-ऐक्सिस को रेपेटिशन लेबल किया गया है. दो प्लॉट दिखेंगे. एक प्लॉट में,
          ट्रेनिंग लॉस दिखता है और दूसरे में पुष्टि करने से जुड़ा लॉस दिखता है.
          दोनों प्लॉट एक जैसे शुरू होते हैं, लेकिन आखिर में ट्रेनिंग लॉस, पुष्टि करने के लिए इस्तेमाल हुए लॉस से काफ़ी कम हो जाता है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में जनरलाइज़ेशन देखें.

सामान्य लीनियर मॉडल

लेस्ट स्क्वेयर्स रेग्रेसन मॉडल का सामान्यीकरण, जो गॉसियन नॉइज़ पर आधारित होते हैं. ये मॉडल, अन्य तरह के नॉइज़ पर आधारित अन्य तरह के मॉडल में बदल जाते हैं. जैसे, पॉइसन नॉइज़ या कैटगरी नॉइज़. सामान्य लीनियर मॉडल के उदाहरणों में ये शामिल हैं:

सामान्य लीनियर मॉडल के पैरामीटर, कॉन्वेक्स ऑप्टिमाइज़ेशन की मदद से मिल सकते हैं.

सामान्य लीनियर मॉडल में ये प्रॉपर्टी दिखती हैं:

  • सबसे सही लेस स्क्वेयर्स रेग्रेशन मॉडल का औसत अनुमान, ट्रेनिंग डेटा के औसत लेबल के बराबर होता है.
  • ऑप्टिमल लॉजिस्टिक रिग्रेशन मॉडल से अनुमानित औसत संभावना, ट्रेनिंग डेटा पर मौजूद औसत लेबल के बराबर होती है.

सामान्य लीनियर मॉडल की सुविधाओं की वजह से, इसकी क्षमता सीमित होती है. डीप मॉडल के उलट, सामान्य लीनियर मॉडल "नई सुविधाएं नहीं सीख सकता."

जनरेट किया गया टेक्स्ट

#language
#generativeAI

आम तौर पर, वह टेक्स्ट जो एमएल मॉडल से मिलता है. लार्ज लैंग्वेज मॉडल का आकलन करते समय, कुछ मेट्रिक जनरेट किए गए टेक्स्ट की तुलना रेफ़रंस टेक्स्ट से करती हैं. उदाहरण के लिए, मान लें कि आपको यह पता करना है कि एमएल मॉडल, फ़्रेंच से डच में कितनी असरदार तरीके से अनुवाद करता है. इस मामले में:

  • जनरेट किया गया टेक्स्ट, डच भाषा में अनुवाद है, जो एमएल मॉडल से मिलता है.
  • रेफ़रंस टेक्स्ट, डच भाषा में अनुवाद होता है. इसे कोई अनुवादक या सॉफ़्टवेयर बनाता है.

ध्यान दें कि आकलन की कुछ रणनीतियों में रेफ़रंस टेक्स्ट शामिल नहीं होता.

जनरेटिव ऐडवर्सल नेटवर्क (जीएएन)

नया डेटा बनाने वाला सिस्टम, जिसमें जनरेटर डेटा बनाता है और डिस्करिमिनेटर यह तय करता है कि बनाया गया डेटा मान्य है या अमान्य.

ज़्यादा जानकारी के लिए, जनरेटिव अडवर्सेरी नेटवर्क कोर्स देखें.

जनरेटिव एआई

#language
#image
#generativeAI

यह एक ऐसा फ़ील्ड है जो बदलावों को बढ़ावा देता है. हालांकि, इसकी कोई आधिकारिक परिभाषा नहीं है. हालांकि, ज़्यादातर विशेषज्ञ इस बात से सहमत हैं कि जनरेटिव एआई मॉडल, ऐसा कॉन्टेंट बना सकते हैं ("जनरेट" कर सकते हैं) जो इन सभी चीज़ों के मुताबिक हो:

  • जटिल
  • एक-दूसरे से जुड़े हुए
  • मूल

उदाहरण के लिए, जनरेटिव एआई मॉडल बेहतरीन तरह के लेख या इमेज बना सकता है.

LSTMs और RNNs जैसी कुछ पुरानी टेक्नोलॉजी से भी ओरिजनल और एक जैसा कॉन्टेंट जनरेट किया जा सकता है. कुछ विशेषज्ञ इन पुरानी टेक्नोलॉजी को जनरेटिव एआई मानते हैं, जबकि कुछ का मानना है कि असल जनरेटिव एआई के लिए, ज़्यादा जटिल आउटपुट की ज़रूरत होती है, जो इन पुरानी टेक्नोलॉजी से नहीं मिल सकता.

अनुमानित एमएल के साथ तुलना करें.

जनरेटिव मॉडल

व्यावहारिक तौर पर, ऐसा मॉडल जो इनमें से कोई एक काम करता है:

  • ट्रेनिंग डेटासेट से नए उदाहरण बनाता है (जनरेट करता है). उदाहरण के लिए, जनरेटिव मॉडल, कविताओं के डेटासेट पर ट्रेनिंग के बाद कविता बना सकता है. जनरेटिव अडवर्सेरी नेटवर्क का जनरेटर हिस्सा, इस कैटगरी में आता है.
  • यह तय करता है कि नया उदाहरण, ट्रेनिंग सेट से आया है या उसी तरीके से बनाया गया है जिससे ट्रेनिंग सेट बनाया गया था. उदाहरण के लिए, अंग्रेज़ी के वाक्यों वाले डेटासेट पर ट्रेनिंग के बाद, जनरेटिव मॉडल यह तय कर सकता है कि नया इनपुट, अंग्रेज़ी का मान्य वाक्य है या नहीं.

जनरेटिव मॉडल, सैद्धांतिक तौर पर किसी डेटासेट में उदाहरणों या खास सुविधाओं के डिस्ट्रिब्यूशन का पता लगा सकता है. यानी:

p(examples)

अनसुपरवाइज़्ड लर्निंग मॉडल, जनरेटिव होते हैं.

भेदभाव करने वाले मॉडल के साथ तुलना करें.

जेनरेटर

जनरेटिव ऐडवर्सेरी नेटवर्क में मौजूद सबसिस्टम, जो नए उदाहरण बनाता है.

डिसक्रिमिनेटिव मॉडल के साथ तुलना करें.

gini impurity

#df

एन्ट्रापी जैसी मेट्रिक. स्प्लिटर, गिनी इंप्यूरिटी या एन्ट्रापी से मिली वैल्यू का इस्तेमाल करते हैं. इससे, फ़ैसला लेने वाले पेड़ों के लिए, अलग-अलग कैटगरी बनाने की शर्तें तय की जाती हैं. जानकारी हासिल करना, एन्ट्रापी से मिलता है. गिनिन इंप्यूरिटी से मिली मेट्रिक के लिए, दुनिया भर में स्वीकार किया गया कोई समान शब्द नहीं है. हालांकि, नाम न होने के बावजूद यह मेट्रिक, जानकारी हासिल करने के लिए उतनी ही ज़रूरी है.

Gini impurity को gini index या सिर्फ़ gini भी कहा जाता है.

गोल्डन डेटासेट

मैन्युअल तरीके से चुने गए डेटा का सेट, जो ग्राउंड ट्रूथ को कैप्चर करता है. टीमें, मॉडल की क्वालिटी का आकलन करने के लिए, एक या एक से ज़्यादा गोल्डन डेटासेट का इस्तेमाल कर सकती हैं.

कुछ गोल्डन डेटासेट, ग्राउंड ट्रूथ के अलग-अलग सबडोमेन कैप्चर करते हैं. उदाहरण के लिए, इमेज को अलग-अलग कैटगरी में बांटने के लिए, किसी गोल्डन डेटासेट में रोशनी की स्थिति और इमेज का रिज़ॉल्यूशन कैप्चर किया जा सकता है.

गोल्डन रिस्पॉन्स

#language
#generativeAI

ऐसा जवाब जो सही हो. उदाहरण के लिए, नीचे दिया गया प्रॉम्प्ट:

2 + 2

उम्मीद है कि आपका जवाब इस तरह का होगा:

4

जीपीटी (जनरेटिव प्री-ट्रेन्ड ट्रांसफ़ॉर्मर)

#language

OpenAI ने Transformer पर आधारित लार्ज लैंग्वेज मॉडल का एक फ़ैमिली बनाया है.

GPT वैरिएंट, कई मोड पर लागू हो सकते हैं. इनमें ये शामिल हैं:

  • इमेज जनरेशन (उदाहरण के लिए, ImageGPT)
  • टेक्स्ट से इमेज जनरेट करने की सुविधा (उदाहरण के लिए, DALL-E).

ग्रेडिएंट

सभी इंडिपेंडेंट वैरिएबल के हिसाब से, पार्शियल डेरिवेटिव का वेक्टर. मशीन लर्निंग में, ग्रेडिएंट, मॉडल फ़ंक्शन के आंशिक डेरिवेटिव का वेक्टर होता है. ग्रेडिएंट, सबसे ज़्यादा चढ़ाई वाली दिशा में पॉइंट करता है.

ग्रेडिएंट इकट्ठा करना

बैकप्रोपगेशन तकनीक, जो हर एक बार के बजाय, हर एक्यूपॉज़ में सिर्फ़ एक बार पैरामीटर अपडेट करती है. हर मिनी-बैच को प्रोसेस करने के बाद, ग्रेडिएंट इकट्ठा करने की प्रोसेस, ग्रेडिएंट की कुल संख्या को अपडेट करती है. इसके बाद, एपिसोड में आखिरी मिनी-बैच को प्रोसेस करने के बाद, सिस्टम सभी ग्रेडिएंट बदलावों के आधार पर पैरामीटर को अपडेट करता है.

ग्रेडिएंट इकट्ठा करने की सुविधा तब काम की होती है, जब ट्रेनिंग के लिए उपलब्ध मेमोरी की तुलना में बैच का साइज़ बहुत बड़ा हो. जब मेमोरी की समस्या होती है, तो बैच का साइज़ कम करना स्वाभाविक है. हालांकि, सामान्य बैकप्रोपगेशन में बैच साइज़ को कम करने से, पैरामीटर अपडेट की संख्या बढ़ जाती है. ग्रेडिएंट इकट्ठा करने की सुविधा से, मॉडल को मेमोरी से जुड़ी समस्याओं से बचने में मदद मिलती है. साथ ही, मॉडल को बेहतर तरीके से ट्रेन किया जा सकता है.

ग्रेडिएंट बूस्ट किए गए (डिसीज़न) ट्री (जीबीटी)

#df

डिसीज़न फ़ॉरेस्ट का एक टाइप, जिसमें:

ज़्यादा जानकारी के लिए, डिसीज़न फ़ॉरेस्ट कोर्स में ग्रेडिएंट बूस्टेड डिसीज़न ट्री देखें.

ग्रेडिएंट बूस्टिंग

#df

एक ट्रेनिंग एल्गोरिदम, जिसमें खराब मॉडल को बार-बार बेहतर बनाने (लोस को कम करने) के लिए, बेहतर मॉडल को ट्रेन किया जाता है. उदाहरण के लिए, कमज़ोर मॉडल, लीनियर या छोटा डिसीज़न ट्री मॉडल हो सकता है. बेहतर मॉडल, पहले से ट्रेन किए गए सभी कमज़ोर मॉडल का योग होता है.

ग्रेडिएंट बूस्टिंग के सबसे आसान तरीके में, हर बार दोहराए जाने वाले एलिमेंट के लिए, कमज़ोर मॉडल को ट्रेन किया जाता है, ताकि बेहतर मॉडल के लॉस ग्रेडिएंट का अनुमान लगाया जा सके. इसके बाद, ग्रेडिएंट डिसेंट की तरह ही, अनुमानित ग्रेडिएंट को घटाकर, बेहतर मॉडल का आउटपुट अपडेट किया जाता है.

$$F_{0} = 0$$ $$F_{i+1} = F_i - \xi f_i $$

कहां:

  • $F_{0}$, शुरुआती बेहतर मॉडल है.
  • $F_{i+1}$ अगला बेहतर मॉडल है.
  • $F_{i}$, मौजूदा बेहतर मॉडल है.
  • $\xi$, 0.0 से 1.0 के बीच की एक वैल्यू होती है, जिसे छोटा करना कहा जाता है. यह वैल्यू, ग्रेडिएंट डिसेंट में लर्निंग रेट के बराबर होती है.
  • $f_{i}$ एक ऐसा कमज़ोर मॉडल है जिसे $F_{i}$ के लॉस ग्रेडिएंट का अनुमान लगाने के लिए ट्रेन किया गया है.

ग्रेडिएंट बूसटिंग के आधुनिक वैरिएशन में, गणना के दौरान लॉस का दूसरा डेरिवेटिव (हेसियन) भी शामिल होता है.

आम तौर पर, फ़ैसला लेने वाले ट्री का इस्तेमाल, ग्रेडिएंट बूसटिंग में कमज़ोर मॉडल के तौर पर किया जाता है. ग्रेडिएंट बूस्टर (फ़ैसला) ट्री देखें.

ग्रेडिएंट क्लिपिंग

#seq

आम तौर पर इस्तेमाल होने वाला एक तरीका, जिससे एक्सप्लॉडिंग ग्रेडिएंट की समस्या को कम किया जा सकता है. इसके लिए, मॉडल को ट्रेन करने के लिए, ग्रेडिएंट डिसेंट का इस्तेमाल करते समय, ग्रेडिएंट की ज़्यादा से ज़्यादा वैल्यू को कृत्रिम रूप से सीमित (क्लिपिंग) किया जाता है.

ग्रेडिएंट डिसेंट

#fundamentals

नुकसान को कम करने के लिए, गणित से जुड़ी एक तकनीक. ग्रेडिएंट डिसेंट, वेट और बायस में बार-बार बदलाव करता है. साथ ही, धीरे-धीरे सबसे अच्छा कॉम्बिनेशन ढूंढता है, ताकि लॉस को कम किया जा सके.

ग्रेडिएंट डिसेंट, मशीन लर्निंग से काफ़ी पुराना है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में लीनियर रिग्रेशन: ग्रेडिएंट डिसेंट देखें.

ग्राफ़

#TensorFlow

TensorFlow में, कैलकुलेशन की खास बातें. ग्राफ़ में मौजूद नोड, ऑपरेशन दिखाते हैं. एज डायरेक्ट किए जाते हैं और किसी ऑपरेशन (Tensor) के नतीजे को ऑपरेंड के तौर पर किसी दूसरे ऑपरेशन में पास करने के बारे में बताते हैं. ग्राफ़ को विज़ुअलाइज़ करने के लिए, TensorBoard का इस्तेमाल करें.

ग्राफ़ चलाना

#TensorFlow

TensorFlow प्रोग्रामिंग एनवायरमेंट, जिसमें प्रोग्राम पहले एक ग्राफ़ बनाता है और फिर उस ग्राफ़ के पूरे या कुछ हिस्से को लागू करता है. ग्राफ़ को लागू करने का तरीका, TensorFlow 1.x में डिफ़ॉल्ट तौर पर लागू होने का तरीका है.

तय समय से पहले ट्रिगर होने की तुलना में.

लालची नीति

#rl

रिनफ़ोर्समेंट लर्निंग में, ऐसी नीति जो हमेशा सबसे ज़्यादा अनुमानित रिटर्न वाली कार्रवाई चुनती है.

भरोसेमंद स्रोतों से जानकारी लेना

किसी मॉडल की ऐसी प्रॉपर्टी जिसका आउटपुट, किसी खास सोर्स मटीरियल पर आधारित होता है. उदाहरण के लिए, मान लें कि आपने लार्ज लैंग्वेज मॉडल को इनपुट ("कॉन्टेक्स्ट") के तौर पर, फ़िज़िक्स की पूरी टेक्स्टबुक दी है. इसके बाद, उस लार्ज लैंग्वेज मॉडल से भौतिकी से जुड़ा कोई सवाल पूछा जाता है. अगर मॉडल के जवाब में उस किताब की जानकारी दिखती है, तो इसका मतलब है कि वह मॉडल उस किताब पर आधारित है.

ध्यान दें कि ग्राउंडेड मॉडल हमेशा तथ्यों पर आधारित मॉडल नहीं होता. उदाहरण के लिए, फ़िज़िक्स की इनपुट टेक्स्टबुक में गलतियां हो सकती हैं.

ग्राउंड ट्रूथ

#fundamentals

रिएलिटी.

असल में क्या हुआ.

उदाहरण के लिए, बाइनरी क्लासिफ़िकेशन वाला मॉडल, यह अनुमान लगाता है कि विश्वविद्यालय के पहले साल में पढ़ रहा छात्र, छह साल के अंदर ग्रेजुएट होगा या नहीं. इस मॉडल के लिए असल जानकारी यह है कि छात्र ने छह साल के अंदर ग्रेजुएट की डिग्री हासिल की है या नहीं.

ग्रुप एट्रिब्यूशन में मौजूद पूर्वाग्रह

#fairness

यह मानते हुए कि किसी व्यक्ति के लिए जो सही है वह उस ग्रुप के सभी लोगों के लिए भी सही है. डेटा इकट्ठा करने के लिए, सुविधाजनक सैंपलिंग का इस्तेमाल करने पर, ग्रुप एट्रिब्यूशन बायस के असर को और भी बढ़ाया जा सकता है. नमूने के तौर पर चुने गए डेटा में, ऐसे एट्रिब्यूशन दिए जा सकते हैं जो असल स्थिति को नहीं दिखाते.

बाहरी ग्रुप के लिए एक जैसी सोच और अपने ग्रुप के लिए एक जैसी सोच के बारे में भी जानें. ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में निष्पक्षता: पक्षपात के टाइप देखें.

H

मतिभ्रम

#language

जनरेटिव एआई मॉडल से ऐसा आउटपुट जनरेट होना जो सही लगने के बावजूद, असल में गलत हो. यह मॉडल, असल दुनिया के बारे में दावा करता है. उदाहरण के लिए, जनरेटिव एआई मॉडल का यह दावा करना कि बराक ओबामा की मृत्यु 1865 में हो गई थी, गलत है.

हैशिंग

मशीन लर्निंग में, कैटगरी वाले डेटा को बकेट करने का तरीका. ऐसा तब किया जाता है, जब कैटगरी की संख्या ज़्यादा हो, लेकिन डेटासेट में दिखने वाली कैटगरी की संख्या कम हो.

उदाहरण के लिए, धरती पर पेड़ों की करीब 73,000 प्रजातियां हैं. 73,000 पेड़ों की हर प्रजाति को, 73,000 अलग-अलग कैटगरी वाली बकेट में दिखाया जा सकता है. इसके अलावा, अगर किसी डेटासेट में उनमें से सिर्फ़ 200 ट्री टाइप दिखते हैं, तो हैशिंग का इस्तेमाल करके ट्री टाइप को 500 बकेट में बांटा जा सकता है.

एक ही बकेट में, पेड़ की कई प्रजातियां हो सकती हैं. उदाहरण के लिए, हैश करने की वजह से, बाओबाब और लाल मेपल—दो ऐसी प्रजातियां जो जेनेटिक तौर पर एक-दूसरे से अलग हैं—एक ही बकेट में हो सकती हैं. इसके बावजूद, हैशिंग अब भी कैटगरी वाले बड़े सेट को चुनी गई संख्या में बकेट में मैप करने का एक अच्छा तरीका है. हैश करने की प्रोसेस से, कैटगरी वाली ऐसी सुविधा की संभावित वैल्यू की संख्या बहुत कम हो जाती है जिसमें संभावित वैल्यू की संख्या बहुत ज़्यादा होती है. ऐसा, वैल्यू को तय तरीके से ग्रुप करके किया जाता है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में कैटगरी वाला डेटा: शब्दावली और वन-हॉट एन्कोडिंग देखें.

अनुमान से जुड़ा

किसी समस्या का आसान और तुरंत लागू किया जा सकने वाला समाधान. उदाहरण के लिए, "ह्यूरिस्टिक का इस्तेमाल करके, हमें 86% सटीक नतीजे मिले. जब हमने डीप न्यूरल नेटवर्क पर स्विच किया, तो सटीक नतीजे मिलने की दर 98% तक पहुंच गई."

छिपी हुई लेयर

#fundamentals

न्यूरल नेटवर्क में एक लेयर, जो इनपुट लेयर (सुविधाएं) और आउटपुट लेयर (अनुमान) के बीच होती है. हर छिपी हुई लेयर में एक या उससे ज़्यादा न्यूरॉन होते हैं. उदाहरण के लिए, नीचे दिए गए न्यूरल नेटवर्क में दो हिडन लेयर हैं. पहली लेयर में तीन न्यूरॉन और दूसरी लेयर में दो न्यूरॉन हैं:

चार लेयर. पहली लेयर एक इनपुट लेयर है, जिसमें दो
          सुविधाएं होती हैं. दूसरी लेयर एक हिडन लेयर है, जिसमें तीन न्यूरॉन होते हैं. तीसरी लेयर एक हिडन लेयर होती है, जिसमें दो न्यूरॉन होते हैं. चौथी लेयर, आउटपुट लेयर होती है. हर फ़ीचर में तीन किनारे होते हैं. इनमें से हर किनारा, दूसरी लेयर में मौजूद किसी अलग न्यूरॉन पर ले जाता है. दूसरी लेयर में मौजूद हर न्यूरॉन में दो एज होते हैं. इनमें से हर एज, तीसरी लेयर में मौजूद किसी अलग न्यूरॉन पर ले जाता है. तीसरी लेयर के हर न्यूरॉन में एक एज होता है, जो आउटपुट लेयर पर ले जाता है.

डीप न्यूरल नेटवर्क में एक से ज़्यादा हाइडन लेयर होती हैं. उदाहरण के लिए, ऊपर दी गई इमेज में डीप नेटल नेटवर्क दिखाया गया है, क्योंकि इस मॉडल में दो हिडन लेयर हैं.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में न्यूरल नेटवर्क: नोड और छिपी हुई लेयर देखें.

हैरारकीकल क्लस्टरिंग

#clustering

क्लस्टरिंग एल्गोरिदम की कैटगरी, जो क्लस्टर का ट्री बनाती है. हैरारकी क्लस्टरिंग, हैरारकी वाले डेटा के लिए सबसे सही है. जैसे, बोटैनिकल टैक्सोनॉमी. हैरारकी के हिसाब से क्लस्टर बनाने वाले एल्गोरिदम दो तरह के होते हैं:

  • एग्लोमेरेटिव क्लस्टरिंग सबसे पहले हर उदाहरण को अपने क्लस्टर में असाइन करता है. इसके बाद, यह हैरारकी वाला ट्री बनाने के लिए, सबसे मिलते-जुलते क्लस्टर को बार-बार मर्ज करता है.
  • डिविज़िव क्लस्टरिंग सबसे पहले सभी उदाहरणों को एक क्लस्टर में ग्रुप करती है. इसके बाद, क्लस्टर को बार-बार हैरारकी वाले ट्री में बांटती है.

सेंट्रॉइड पर आधारित क्लस्टरिंग के साथ तुलना करें.

ज़्यादा जानकारी के लिए, क्लस्टरिंग कोर्स में क्लस्टरिंग एल्गोरिदम देखें.

पहाड़ी पर चढ़ना

यह एक एल्गोरिदम है, जो एमएल मॉडल को बार-बार बेहतर बनाने ("ऊपर की ओर बढ़ना") के लिए काम करता है. ऐसा तब तक किया जाता है, जब तक मॉडल बेहतर नहीं हो जाता ("पहाड़ी की चोटी पर पहुंचना"). एल्गोरिदम का सामान्य फ़ॉर्मैट इस तरह है:

  1. शुरुआती मॉडल बनाएं.
  2. ट्रेन या फ़ाइन-ट्यून करने के तरीके में छोटे बदलाव करके, नए मॉडल बनाएं. इसके लिए, ट्रेनिंग सेट या अलग-अलग हाइपरपैरामीटर के साथ काम करना पड़ सकता है.
  3. नए उम्मीदवार मॉडल का आकलन करें और इनमें से कोई एक कार्रवाई करें:
    • अगर कोई उम्मीदवार मॉडल, शुरुआती मॉडल से बेहतर परफ़ॉर्म करता है, तो वह उम्मीदवार मॉडल नया शुरुआती मॉडल बन जाता है. ऐसे में, पहला, दूसरा, और तीसरा चरण दोहराएं.
    • अगर कोई मॉडल, शुरुआती मॉडल से बेहतर परफ़ॉर्म नहीं करता है, तो इसका मतलब है कि आपने सबसे बेहतर मॉडल पा लिया है और आपको फिर से मॉडल बनाने की प्रोसेस बंद कर देनी चाहिए.

हाइपरपैरामीटर ट्यूनिंग के बारे में दिशा-निर्देश पाने के लिए, डीप लर्निंग ट्यूनिंग प्लेबुक देखें. फ़ीचर इंजीनियरिंग के बारे में जानने के लिए, मशीन लर्निंग क्रैश कोर्स के डेटा मॉड्यूल देखें.

हिंज का टूटना

क्लासिफ़िकेशन के लिए, लॉस फ़ंक्शन का परिवार, जिसे हर ट्रेनिंग उदाहरण से फ़ैसले की सीमा को जितना हो सके उतना दूर खोजने के लिए डिज़ाइन किया गया है. इससे, उदाहरणों और सीमा के बीच का मार्जिन बढ़ जाता है. केएसवीएम, हिंज लॉस (या इससे जुड़े फ़ंक्शन, जैसे कि स्क्वेयर्ड हिंज लॉस) का इस्तेमाल करते हैं. बाइनरी क्लासिफ़िकेशन के लिए, हिंज लॉस फ़ंक्शन को इस तरह से परिभाषित किया गया है:

$$\text{loss} = \text{max}(0, 1 - (y * y'))$$

यहां y, सही लेबल है, जो -1 या +1 हो सकता है. साथ ही, y', क्लासिफ़ायर मॉडल का रॉ आउटपुट है:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

इसलिए, हिंग लॉस बनाम (y * y') का प्लॉट कुछ ऐसा दिखता है:

एक कार्टीज़न प्लॉट, जिसमें दो लाइन सेगमेंट जुड़े हुए हैं. पहला
          लाइन सेगमेंट (-3, 4) से शुरू होता है और (1, 0) पर खत्म होता है. दूसरा लाइन
          सेगमेंट (1, 0) से शुरू होता है और 0 के स्लोप के साथ अनंत तक चलता है.

पुराने डेटा के आधार पर गलत नतीजे

#fairness

बायस का एक ऐसा टाइप जो दुनिया में पहले से मौजूद है और किसी डेटासेट में शामिल हो गया है. इन पक्षपातों से, मौजूदा सांस्कृतिक रूढ़िवादी सोच, डेमोग्राफ़िक (उम्र, लिंग, आय, शिक्षा वगैरह) में असमानताएं, और कुछ सामाजिक ग्रुप के ख़िलाफ़ पूर्वाग्रहों को दिखाने की संभावना होती है.

उदाहरण के लिए, एक क्लासिफ़िकेशन मॉडल पर विचार करें, जो यह अनुमान लगाता है कि क़र्ज़ के लिए आवेदन करने वाला व्यक्ति, क़र्ज़ चुकाने में चूक करेगा या नहीं. इस मॉडल को दो अलग-अलग कम्यूनिटी के स्थानीय बैंकों से, 1980 के दशक के क़र्ज़ के पुराने डेटा पर ट्रेन किया गया था. अगर समुदाय A के पिछले आवेदकों के क़र्ज़ न चुकाने की संभावना, समुदाय B के आवेदकों के मुकाबले छह गुना ज़्यादा थी, तो मॉडल को पुराने डेटा से यह पता चल सकता है कि समुदाय A के आवेदकों को क़र्ज़ देने की संभावना कम है. भले ही, समुदाय A में क़र्ज़ न चुकाने की दरों को बढ़ाने वाली पुरानी स्थितियां अब काम की न हों.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में निष्पक्षता: पक्षपात के टाइप देखें.

होल्डआउट डेटा

उदाहरण, जिन्हें ट्रेनिंग के दौरान जान-बूझकर इस्तेमाल नहीं किया गया ("होल्ड आउट"). पुष्टि करने वाला डेटासेट और टेस्ट डेटासेट, होल्डआउट डेटा के उदाहरण हैं. होल्डआउट डेटा से, यह पता लगाने में मदद मिलती है कि आपके मॉडल को जिस डेटा पर ट्रेनिंग दी गई है उससे अलग डेटा पर, मॉडल की परफ़ॉर्मेंस कैसी होगी. ट्रेनिंग सेट के मुकाबले, होल्डआउट सेट पर होने वाली गड़बड़ी से, किसी ऐसे डेटासेट पर होने वाली गड़बड़ी का बेहतर अनुमान लगाया जा सकता है जिसे पहले कभी इस्तेमाल नहीं किया गया है.

होस्ट

#TensorFlow
#GoogleCloud

ऐक्सेलरेटर चिप (जीपीयू या TPU) पर एमएल मॉडल को ट्रेनिंग देते समय, सिस्टम का वह हिस्सा इन दोनों को कंट्रोल करता है:

  • कोड का पूरा फ़्लो.
  • इनपुट पाइपलाइन को निकालना और उसमें बदलाव करना.

आम तौर पर, होस्ट ऐक्सेलरेटर चिप पर नहीं, बल्कि सीपीयू पर चलता है. डिवाइस, ऐक्सेलरेटर चिप पर टेंसर में बदलाव करता है.

मानवीय आकलन

#language
#generativeAI

यह एक ऐसी प्रोसेस है जिसमें लोग, एमएल मॉडल के आउटपुट की क्वालिटी का आकलन करते हैं. उदाहरण के लिए, दो भाषाओं के जानकार लोग, अनुवाद करने वाले एमएल मॉडल की क्वालिटी का आकलन करते हैं. मानवीय आकलन, खास तौर पर उन मॉडल का आकलन करने के लिए फ़ायदेमंद होता है जिनके लिए कोई एक सही जवाब नहीं होता.

अपने-आप होने वाले आकलन और अपने-आप रेटिंग देने वाले टूल के आकलन के साथ तुलना करें.

मानवीय हस्तक्षेप (एचआईटीएल)

#generativeAI

यह एक ऐसा मुहावरा है जिसका मतलब इनमें से कोई एक हो सकता है:

  • जनरेटिव एआई के आउटपुट को गंभीरता से या संदेह के साथ देखने की नीति. उदाहरण के लिए, एमएल की इस ग्लॉसरी को लिखने वाले लोग, लार्ज लैंग्वेज मॉडल की क्षमताओं से हैरान हैं. हालांकि, वे लार्ज लैंग्वेज मॉडल की ग़लतियों को भी ध्यान में रखते हैं.
  • यह एक रणनीति या सिस्टम है, जिससे यह पक्का किया जा सकता है कि लोग किसी मॉडल के व्यवहार को बेहतर बनाने, उसका आकलन करने, और उसे बेहतर बनाने में मदद करते हैं. किसी व्यक्ति को इस प्रोसेस में शामिल रखने से, एआई को मशीन इंटेलिजेंस और मानव इंटेलिजेंस, दोनों से फ़ायदा मिलता है. उदाहरण के लिए, ऐसा सिस्टम जिसमें एआई कोड जनरेट करता है और सॉफ़्टवेयर इंजीनियर उसकी समीक्षा करते हैं, उसे मानव-इन-द-लूप सिस्टम कहा जाता है.

हाइपर पैरामीटर

#fundamentals

वे वैरिएबल जिन्हें आपने या किसी हाइपरपैरामीटर ट्यूनिंग सेवाने मॉडल को ट्रेनिंग देने के दौरान, लगातार बदला है. उदाहरण के लिए, लर्निंग रेट एक हाइपरपैरामीटर है. किसी ट्रेनिंग सेशन से पहले, लर्निंग रेट को 0.01 पर सेट किया जा सकता है. अगर आपको लगता है कि 0.01 बहुत ज़्यादा है, तो अगले ट्रेनिंग सेशन के लिए लर्निंग रेट को 0.003 पर सेट किया जा सकता है.

इसके उलट, पैरामीटर वे अलग-अलग वेट और बायस होते हैं जिन्हें मॉडल, ट्रेनिंग के दौरान सीखता है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में लीनियर रिग्रेशन: हाइपरपैरामीटर देखें.

हाइपरप्लेन

वह सीमा जो किसी स्पेस को दो सबस्पेस में बांटती है. उदाहरण के लिए, एक रेखा दो डाइमेंशन में एक हाइपरप्लेन होती है और एक प्लेन तीन डाइमेंशन में एक हाइपरप्लेन होता है. आम तौर पर, मशीन लर्निंग में हाइपरप्लेन, ज़्यादा डाइमेंशन वाले स्पेस को अलग करने वाली सीमा होती है. कर्नल सपोर्ट वेक्टर मशीन, अक्सर बहुत ज़्यादा डाइमेंशन वाले स्पेस में, पॉज़िटिव क्लास को नेगेटिव क्लास से अलग करने के लिए, हाइपरप्लेन का इस्तेमाल करती हैं.

I

i.i.d.

अलग-अलग और एक जैसे डिस्ट्रिब्यूशन का छोटा नाम.

इमेज पहचानने की सुविधा

#image

ऐसी प्रोसेस जो किसी इमेज में मौजूद ऑब्जेक्ट, पैटर्न या कॉन्सेप्ट को अलग-अलग कैटगरी में बांटती है. इमेज की पहचान करने की सुविधा को इमेज का क्लासिफ़िकेशन भी कहा जाता है.

ज़्यादा जानकारी के लिए, एमएल प्रैक्टिकम: इमेज को अलग-अलग कैटगरी में बांटना देखें.

ज़्यादा जानकारी के लिए, एमएल प्रैक्टिकम: इमेज का क्लासिफ़िकेशन करने वाला कोर्स देखें.

असंतुलित डेटासेट

क्लास-असंतुलित डेटासेट का दूसरा नाम.

अनजाने में भेदभाव करना

#fairness

अपने मन के मॉडल और यादों के आधार पर, अपने-आप कोई संबंध या अनुमान लगाना. छिपे हुए पूर्वाग्रह से इन पर असर पड़ सकता है:

  • डेटा को कैसे इकट्ठा और कैटगरी में बांटा जाता है.
  • मशीन लर्निंग सिस्टम को डिज़ाइन और डेवलप करने का तरीका.

उदाहरण के लिए, शादी की फ़ोटो की पहचान करने के लिए क्लासिफ़ायर बनाते समय, कोई इंजीनियर फ़ोटो में सफ़ेद रंग की ड्रेस की मौजूदगी को सुविधा के तौर पर इस्तेमाल कर सकता है. हालांकि, सफ़ेद रंग के कपड़े पहनने का रिवाज सिर्फ़ कुछ समय और कुछ संस्कृतियों में रहा है.

एक पक्ष की पुष्टि करना भी देखें.

लागू करना

वैल्यू का अनुमान का छोटा रूप.

निष्पक्षता मेट्रिक के साथ काम न करना

#fairness

यह विचार कि निष्पक्षता के कुछ विचार एक-दूसरे के साथ काम नहीं करते और एक साथ लागू नहीं किए जा सकते. इसलिए, सभी एमएल समस्याओं पर लागू होने वाली, निष्पक्षता को मेज़र करने वाली कोई एक मेट्रिक नहीं है.

ऐसा लग सकता है कि यह बात आपको हतोत्साहित कर रही है. हालांकि, निष्पक्षता मेट्रिक के साथ काम न करने का मतलब यह नहीं है कि निष्पक्षता को बढ़ावा देने की कोशिशें बेकार हैं. इसके बजाय, यह सुझाव दिया गया है कि किसी एआई मॉडल की समस्या के हिसाब से, निष्पक्षता को परिभाषित किया जाना चाहिए. ऐसा, इसके इस्तेमाल के उदाहरणों से होने वाले नुकसान को रोकने के मकसद से किया जाना चाहिए.

इस विषय के बारे में ज़्यादा जानकारी के लिए, "फ़ेयरनेस की (अ)संभावना के बारे में" लेख पढ़ें.

कॉन्टेक्स्ट के हिसाब से सीखना

#language
#generativeAI

उदाहरण के साथ डाले गए प्रॉम्प्ट का समानार्थी शब्द.

इंडिपेंडेंटली ऐंड आइडेंटिकल डिस्ट्रिब्यूटेड (i.i.d)

#fundamentals

ऐसा डेटा जो किसी ऐसे डिस्ट्रिब्यूशन से लिया गया हो जो बदलता नहीं है. साथ ही, इसमें ली गई हर वैल्यू, पहले ली गई वैल्यू पर निर्भर नहीं करती. आईआईडी, मशीन लर्निंग का आइडल गैस है. यह गणित का एक अहम कॉन्स्ट्रक्ट है, लेकिन असल दुनिया में इसे कभी भी सटीक तौर पर नहीं पाया जाता. उदाहरण के लिए, किसी वेब पेज पर आने वाले लोगों का डिस्ट्रिब्यूशन, कम समय के लिए आईआईडी हो सकता है. इसका मतलब है कि उस कम समय के दौरान डिस्ट्रिब्यूशन में बदलाव नहीं होता और आम तौर पर एक व्यक्ति की विज़िट, दूसरे व्यक्ति की विज़िट से अलग होती है. हालांकि, अगर इस समयावधि को बढ़ाया जाता है, तो वेब पेज पर आने वाले लोगों की संख्या में सीज़न के हिसाब से अंतर दिख सकता है.

नॉन-स्टेशनरी भी देखें.

निष्पक्षता

#fairness

निष्पक्षता मेट्रिक, जो यह जांच करती है कि मिलते-जुलते लोगों को एक जैसा दर्जा दिया गया है या नहीं. उदाहरण के लिए, Brobdingnagian Academy यह पक्का करके, सभी को एक जैसा मौका देना चाहती है कि एक जैसे ग्रेड और स्टैंडर्ड टेस्ट के स्कोर वाले दो छात्र/छात्राओं को, दाखिला पाने की बराबर संभावना हो.

ध्यान दें कि किसी व्यक्ति के लिए निष्पक्षता का आकलन, "मिलती-जुलती" (इस मामले में, ग्रेड और टेस्ट के स्कोर) के आधार पर किया जाता है. अगर मिलती-जुलती मेट्रिक में कोई अहम जानकारी छूट जाती है, तो निष्पक्षता से जुड़ी नई समस्याएं आ सकती हैं. जैसे, किसी छात्र के सिलेबस की कठिनाई.

किसी व्यक्ति के लिए निजता बनाए रखने के बारे में ज़्यादा जानने के लिए, "जानकारी के ज़रिए निजता बनाए रखना" लेख पढ़ें.

अनुमान

#fundamentals

मशीन लर्निंग में, लेबल नहीं किए गए उदाहरणों पर, ट्रेन किए गए मॉडल को लागू करके अनुमान लगाने की प्रोसेस.

आंकड़ों में, अनुमान का मतलब कुछ अलग होता है. ज़्यादा जानकारी के लिए, सांख्यिकीय अनुमान के बारे में Wikipedia का लेख देखें.

सुपरवाइज़्ड लर्निंग सिस्टम में, अनुमान लगाने की भूमिका को समझने के लिए, एआई के बारे में जानकारी देने वाले कोर्स में सुपरवाइज़्ड लर्निंग देखें.

अनुमान लगाने का पाथ

#df

फ़ैसला लेने वाले ट्री में, अनुमान के दौरान, किसी खास उदाहरण के लिए, रूट से लेकर दूसरी शर्तों तक का रास्ता तय किया जाता है. यह रास्ता लीफ़ पर खत्म होता है. उदाहरण के लिए, नीचे दिए गए डिसीज़न ट्री में, ज़्यादा मोटे ऐरो, किसी उदाहरण के लिए इन फ़ीचर वैल्यू के साथ, अनुमान लगाने का पाथ दिखाते हैं:

  • x = 7
  • y = 12
  • z = -3

नीचे दिए गए इलस्ट्रेशन में, लीफ़ (Zeta) तक पहुंचने से पहले, अनुमान लगाने का पाथ तीन स्थितियों से गुज़रता है.

चार शर्तों और पांच लीफ़ वाला डिसीज़न ट्री.
          रूट की शर्त (x > 0) है. जवाब हां होने पर, अनुमान लगाने वाला पाथ रूट से अगली शर्त (y > 0) पर जाता है.
          जवाब हां होने पर, अनुमान लगाने वाला पाथ अगली शर्त (z > 0) पर जाता है. जवाब 'नहीं' होने पर, अनुमान लगाने वाला पाथ अपने टर्मिनल नोड पर जाता है, जो लीफ़ (Zeta) होता है.

तीन मोटे ऐरो, अनुमान लगाने का पाथ दिखाते हैं.

ज़्यादा जानकारी के लिए, डिसीज़न फ़ॉरेस्ट कोर्स में डिसीज़न ट्री देखें.

जानकारी हासिल करना

#df

फ़ैसला फ़ॉरेस्ट में, किसी नोड के एन्ट्रापी और उसके चाइल्ड नोड के एन्ट्रापी के वज़ीदार (उदाहरणों की संख्या के हिसाब से) योग के बीच का अंतर. किसी नोड का एन्ट्रापी, उस नोड में मौजूद उदाहरणों का एन्ट्रापी होता है.

उदाहरण के लिए, इन एन्ट्रापी वैल्यू पर विचार करें:

  • पैरंट नोड की एन्ट्रॉपी = 0.6
  • काम के 16 उदाहरणों वाले एक चाइल्ड नोड का एन्ट्रापी = 0.2
  • काम के 24 उदाहरणों वाले किसी दूसरे चाइल्ड नोड का एन्ट्रापी = 0.1

इसलिए, 40% उदाहरण एक चाइल्ड नोड में और 60% उदाहरण दूसरे चाइल्ड नोड में हैं. इसलिए:

  • चाइल्ड नोड की वेटेड एन्ट्रॉपी का कुल योग = (0.4 * 0.2) + (0.6 * 0.1) = 0.14

इसलिए, आपको यह जानकारी मिलेगी:

  • जानकारी का फ़ायदा = पैरंट नोड की एन्ट्रॉपी - चाइल्ड नोड की वेटेड एन्ट्रॉपी का योग
  • जानकारी का फ़ायदा = 0.6 - 0.14 = 0.46

ज़्यादातर स्प्लिटर, ऐसी शर्तें तय करते हैं जिनसे ज़्यादा से ज़्यादा जानकारी हासिल की जा सके.

इन-ग्रुप बायस

#fairness

अपने ग्रुप या अपनी विशेषताओं को पक्षपात के साथ दिखाना. अगर टेस्टर या रेटर में मशीन लर्निंग डेवलपर के दोस्त, परिवार या साथ काम करने वाले लोग शामिल हैं, तो ग्रुप में मौजूद लोगों के पक्ष में झुकाव की वजह से, प्रॉडक्ट की जांच या डेटासेट अमान्य हो सकता है.

इन-ग्रुप बायस, ग्रुप एट्रिब्यूशन बायस का एक टाइप है. बाहरी ग्रुप के लिए एकरूपता का पूर्वाग्रह भी देखें.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में निष्पक्षता: पक्षपात के टाइप देखें.

इनपुट जनरेटर

वह तरीका जिससे डेटा को न्यूरल नेटवर्क में लोड किया जाता है.

इनपुट जनरेटर को एक ऐसे कॉम्पोनेंट के तौर पर देखा जा सकता है जो रॉ डेटा को टेंसर में प्रोसेस करता है. इन टेंसर को ट्रेनिंग, आकलन, और अनुमान लगाने के लिए बैच जनरेट करने के लिए दोहराया जाता है.

इनपुट लेयर

#fundamentals

न्यूरल नेटवर्क की लेयर, जिसमें फ़ीचर वेक्टर होता है. इसका मतलब है कि इनपुट लेयर, ट्रेनिंग या अनुमान के लिए उदाहरण देती है. उदाहरण के लिए, यहां दिए गए न्यूरल नेटवर्क की इनपुट लेयर में दो सुविधाएं हैं:

चार लेयर: एक इनपुट लेयर, दो हिडन लेयर, और एक आउटपुट लेयर.

इन-सेट स्थिति

#df

फ़ैसला लेने वाले ट्री में, आइटम के सेट में किसी एक आइटम की मौजूदगी की जांच करने वाली शर्त. उदाहरण के लिए, इन-सेट शर्त यह है:

  house-style in [tudor, colonial, cape]

अनुमान लगाने के दौरान, अगर घर की स्टाइल सुविधा की वैल्यू tudor या colonial या cape है, तो इस शर्त का आकलन 'हां' के तौर पर किया जाता है. अगर घर के स्टाइल की सुविधा की वैल्यू कुछ और है (उदाहरण के लिए, ranch), तो इस शर्त का आकलन 'नहीं' के तौर पर किया जाता है.

आम तौर पर, इन-सेट शर्तों से ज़्यादा बेहतर फ़ैसला लेने वाले ट्री बनते हैं. ये शर्तें, वन-हॉट कोड वाली सुविधाओं की जांच करने वाली शर्तों से बेहतर होती हैं.

इंस्टेंस

example का समानार्थी शब्द.

निर्देश ट्यूनिंग

#generativeAI

बेहतर बनाने का एक तरीका, जो जनरेटिव एआई मॉडल के निर्देशों को फ़ॉलो करने की क्षमता को बेहतर बनाता है. निर्देश ट्यूनिंग में, निर्देशों के प्रॉम्प्ट की एक सीरीज़ पर मॉडल को ट्रेनिंग दी जाती है. आम तौर पर, इसमें कई तरह के टास्क शामिल होते हैं. इसके बाद, निर्देशों के हिसाब से ट्यून किया गया मॉडल, कई तरह के टास्क के लिए ज़ीरो-शॉट प्रॉम्प्ट के लिए काम के जवाब जनरेट करता है.

इनके साथ तुलना करें:

समझने में आसानी

#fundamentals

मशीन लर्निंग मॉडल के फ़ैसले को समझने लायक शब्दों में, किसी व्यक्ति को बताने या पेश करने की क्षमता.

उदाहरण के लिए, ज़्यादातर लीनियर रिग्रेशन मॉडल को आसानी से समझा जा सकता है. (आपको हर फ़ीचर के लिए, ट्रेन किए गए वेट को देखना होगा.) फ़ैसले के फ़ॉरेस्ट को समझना भी आसान होता है. हालांकि, कुछ मॉडल को समझने के लिए, बेहतर विज़ुअलाइज़ेशन की ज़रूरत होती है.

एमएल मॉडल को समझने के लिए, लर्निंग इंटरप्रिटेबिलिटी टूल (एलआईटी) का इस्तेमाल किया जा सकता है.

इंटर-रेटर एग्रीमेंट

यह मेज़र करता है कि कोई टास्क करते समय, रेटिंग देने वाले लोग कितनी बार एक-दूसरे से सहमत होते हैं. अगर रेटर आपसे सहमत नहीं हैं, तो हो सकता है कि टास्क के निर्देशों को बेहतर बनाने की ज़रूरत हो. इसे कभी-कभी एनोटेट करने वाले लोगों के बीच सहमति या रेटिंग देने वाले लोगों के बीच भरोसे का स्तर भी कहा जाता है. कोहेन का कप्पा भी देखें. यह, रेटिंग देने वाले अलग-अलग लोगों के बीच सहमति का सबसे लोकप्रिय मेज़रमेंट है.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में कैटगरी वाला डेटा: आम समस्याएं देखें.

इंटरसेक्शन ओवर यूनियन (IoU)

#image

दो सेट के इंटरसेक्शन को उनके यूनियन से भाग दिया जाता है. मशीन लर्निंग की मदद से इमेज की पहचान करने वाले टास्क में, IoU का इस्तेमाल करके यह मेज़र किया जाता है कि मॉडल के अनुमानित बाउंडिंग बॉक्स की तुलना में, ग्राउंड-ट्रूथ बाउंडिंग बॉक्स कितना सटीक है. इस मामले में, दोनों बॉक्स के लिए IoU, ओवरलैप होने वाले हिस्से और पूरे हिस्से के बीच का अनुपात होता है. इसकी वैल्यू 0 से 1 के बीच होती है. 0 का मतलब है कि अनुमानित बॉउंडिंग बॉक्स और ग्राउंड-ट्रूथ बॉउंडिंग बॉक्स ओवरलैप नहीं होते. वहीं, 1 का मतलब है कि अनुमानित बॉउंडिंग बॉक्स और ग्राउंड-ट्रूथ बॉउंडिंग बॉक्स के कोऑर्डिनेट एक जैसे होते हैं.

उदाहरण के लिए, नीचे दी गई इमेज में:

  • अनुमानित बाउंडिंग बॉक्स (पेंटिंग में मॉडल के अनुमानित नाइट टेबल के कोऑर्डिनेट) को बैंगनी रंग में दिखाया गया है.
  • ग्राउंड-ट्रूथ बाउंडिंग बॉक्स (पेंटिंग में नाइट टेबल की असल जगह की जानकारी देने वाले निर्देशांक) को हरे रंग में दिखाया गया है.

वैन गॉग की पेंटिंग, 'आर्ल में विंसेंट का बेडरूम'. इसमें बिस्तर के बगल में मौजूद नाइट टेबल के चारों ओर दो अलग-अलग बाउंडिंग बॉक्स हैं. ग्राउंड-ट्रूथ
          बाउंडिंग बॉक्स (हरे रंग में) ने नाइट टेबल को पूरी तरह से घेर लिया है. अनुमानित बॉउंडिंग बॉक्स (बैंगनी रंग में), ग्राउंड-ट्रूथ बॉउंडिंग बॉक्स के नीचे और दाईं ओर 50% तक ऑफ़सेट है. यह नाइट टेबल के सबसे नीचे दाईं ओर मौजूद चौथाई हिस्से को शामिल करता है, लेकिन टेबल के बाकी हिस्से को शामिल नहीं करता.

यहां, अनुमान और ज़मीनी सच्चाई (नीचे बाईं ओर) के बाउंडिंग बॉक्स का इंटरसेक्शन 1 है और अनुमान और ज़मीनी सच्चाई (नीचे दाईं ओर) के बाउंडिंग बॉक्स का यूनियन 7 है. इसलिए, IoU \(\frac{1}{7}\)है.

ऊपर दी गई इमेज जैसी ही, लेकिन हर बॉउंडिंग बॉक्स को चार क्वाड्रेंट में बांटा गया है. कुल सात क्वाड्रेंट होते हैं, क्योंकि ग्राउंड-ट्रूथ बॉउंडिंग बॉक्स का सबसे नीचे दाईं ओर वाला क्वाड्रेंट और अनुमानित बॉउंडिंग बॉक्स का सबसे ऊपर बाईं ओर वाला क्वाड्रेंट, एक-दूसरे से ओवरलैप होते हैं. यह overlap करने वाला सेक्शन (हरे रंग में हाइलाइट किया गया), इंटरसेक्शन को दिखाता है. इसका क्षेत्रफल 1 है. ऊपर दी गई इमेज जैसी ही, लेकिन हर बॉउंडिंग बॉक्स को चार क्वाड्रेंट में बांटा गया है. कुल सात क्वाड्रेंट होते हैं, क्योंकि ग्राउंड-ट्रूथ बॉउंडिंग बॉक्स का सबसे नीचे दाईं ओर वाला क्वाड्रेंट और अनुमानित बॉउंडिंग बॉक्स का सबसे ऊपर बाईं ओर वाला क्वाड्रेंट, एक-दूसरे से ओवरलैप होते हैं.
          दोनों बॉउंडिंग बॉक्स (हरे रंग में हाइलाइट किए गए) के अंदर का पूरा हिस्सा, यूनियन दिखाता है. इसका क्षेत्रफल 7 है.

IoU

यूनियन के ऊपर इंटरसेक्शन का छोटा नाम.

आइटम मैट्रिक्स

#recsystems

सुझाव देने वाले सिस्टम में, मैट्रिक फ़ैक्टरिज़ेशन की मदद से जनरेट किए गए एम्बेड किए गए वैक्टर की मैट्रिक होती है. इसमें हर आइटम के बारे में लेटेंट सिग्नल होते हैं. आइटम मैट्रिक की हर पंक्ति में, सभी आइटम के लिए एक ही लатент फ़ीचर की वैल्यू होती है. उदाहरण के लिए, फ़िल्म के सुझाव देने वाला सिस्टम. आइटम मैट्रिक में मौजूद हर कॉलम, एक फ़िल्म के बारे में बताता है. लेटलेंट सिग्नल से शैलियों के बारे में पता चल सकता है. इसके अलावा, ये ऐसे सिग्नल भी हो सकते हैं जिनका विश्लेषण करना मुश्किल हो. इनमें शैली, स्टार, फ़िल्म की उम्र या अन्य फ़ैक्टर के बीच जटिल इंटरैक्शन शामिल होते हैं.

आइटम मैट्रिक में कॉलम की संख्या उतनी ही होती है जितनी फ़ैक्टराइज़ की जा रही टारगेट मैट्रिक में होती है. उदाहरण के लिए, अगर फ़िल्म के सुझाव देने वाला कोई सिस्टम, 10,000 फ़िल्मों के टाइटल का आकलन करता है, तो आइटम मैट्रिक में 10,000 कॉलम होंगे.

आइटम

#recsystems

सुझाव देने वाले सिस्टम में, वे इकाइयां जिनका सुझाव सिस्टम देता है. उदाहरण के लिए, वीडियो ऐसे आइटम होते हैं जिनका सुझाव वीडियो स्टोर देता है, जबकि किताबें ऐसे आइटम होते हैं जिनका सुझाव किताबों की दुकान देता है.

इटरेशन

#fundamentals

मॉडल के पैरामीटर का एक अपडेट, यानी कि ट्रेनिंग के दौरान, मॉडल के वज़न और बायस. बैच साइज़ से यह तय होता है कि मॉडल एक बार में कितने उदाहरणों को प्रोसेस करता है. उदाहरण के लिए, अगर बैच का साइज़ 20 है, तो पैरामीटर में बदलाव करने से पहले मॉडल 20 उदाहरणों को प्रोसेस करता है.

न्यूरल नेटवर्क को ट्रेनिंग देते समय, एक बार में दो पास होते हैं:

  1. किसी एक बैच में लॉस का आकलन करने के लिए फ़ॉरवर्ड पास.
  2. लॉस और लर्निंग रेट के आधार पर, मॉडल के पैरामीटर में बदलाव करने के लिए बैकवर्ड पास (बैकप्रोपगेशन).

J

JAX

ऐरे कंप्यूटिंग लाइब्रेरी, जिसमें XLA (Accelerated Linear Algebra) और अपने-आप अंतर करने की सुविधा को एक साथ जोड़ा गया है. इससे, बेहतर परफ़ॉर्मेंस वाली संख्यात्मक कंप्यूटिंग की जा सकती है. JAX, आसान और बेहतर एपीआई उपलब्ध कराता है. इसकी मदद से, एलिमेंट को एक-दूसरे में बदलने की सुविधा के साथ, तेज़ी से काम करने वाला अंकों वाला कोड लिखा जा सकता है. JAX में ये सुविधाएं मिलती हैं:

  • grad (अपने-आप अंतर करना)
  • jit (जस्ट-इन-टाइम कंपाइलेशन)
  • vmap (वेक्टर में अपने-आप बदलना या एक साथ कई फ़ाइलों को प्रोसेस करना)
  • pmap (पारलल प्रोसेसिंग)

JAX, संख्याओं वाले कोड में बदलाव करने और उन्हें कंपोज़ करने के लिए इस्तेमाल की जाने वाली एक भाषा है. यह Python की NumPy लाइब्रेरी से मिलती-जुलती है, लेकिन इसका दायरा ज़्यादा बड़ा है. (असल में, JAX में मौजूद .numpy लाइब्रेरी, Python NumPy लाइब्रेरी की तरह ही काम करती है. हालांकि, इसे पूरी तरह से फिर से लिखा गया है.)

JAX, मशीन लर्निंग से जुड़े कई टास्क को तेज़ी से पूरा करने के लिए खास तौर पर बेहतर है. यह मॉडल और डेटा को ऐसे फ़ॉर्मैट में बदल देता है जिससे GPU और TPU एक्सेलरेटर चिप पर एक साथ कई काम किए जा सकते हैं.

Flax, Optax, Pax, और कई अन्य लाइब्रेरी, JAX इंफ़्रास्ट्रक्चर पर बनाई गई हैं.

K

Keras

Python का एक लोकप्रिय मशीन लर्निंग एपीआई. Keras कई डीप लर्निंग फ़्रेमवर्क पर काम करता है. इनमें TensorFlow भी शामिल है, जहां इसे tf.keras के तौर पर उपलब्ध कराया गया है.

कर्नेल सपोर्ट वेक्टर मशीन (KSVMs)

यह एक क्लासिफ़िकेशन एल्गोरिदम है, जो इनपुट डेटा वेक्टर को ज़्यादा डाइमेंशन वाले स्पेस में मैप करके, पॉज़िटिव और नेगेटिव क्लास के बीच के मार्जिन को बढ़ाने की कोशिश करता है. उदाहरण के लिए, किसी कैटगरी के लिए डेटा को अलग-अलग कैटगरी में बांटने की समस्या को लें. इसमें, इनपुट डेटासेट में सौ फ़ीचर हैं. पोज़िटिव और नेगेटिव क्लास के बीच के मार्जिन को बढ़ाने के लिए, KSVM उन सुविधाओं को अंदरूनी तौर पर एक मिलियन डाइमेंशन वाले स्पेस में मैप कर सकता है. केएसवीएम, हिंग लॉस नाम के लॉस फ़ंक्शन का इस्तेमाल करते हैं.

keypoints

#image

किसी इमेज में मौजूद खास चीज़ों के निर्देशांक. उदाहरण के लिए, इमेज की पहचान करने वाले ऐसे मॉडल के लिए, जिसमें फूल की प्रजातियों में अंतर किया जाता है, मुख्य पॉइंट हर पंखुड़ी का बीच, डंठल, और स्टैमन वगैरह हो सकते हैं.

k-फ़ोल्ड क्रॉस-वैलिडेशन

नए डेटा पर सामान्य नतीजे देने की मॉडल की क्षमता का अनुमान लगाने वाला एल्गोरिदम. क-फ़ोल्ड में k से पता चलता है कि डेटासेट के उदाहरणों को कितने बराबर ग्रुप में बांटा गया है. इसका मतलब है कि आपने अपने मॉडल को k बार ट्रेन किया है और उसकी जांच की है. ट्रेनिंग और टेस्टिंग के हर राउंड के लिए, एक अलग ग्रुप को टेस्ट सेट माना जाता है और बाकी सभी ग्रुप को ट्रेनिंग सेट माना जाता है. ट्रेनिंग और टेस्टिंग के k राउंड के बाद, चुनी गई टेस्ट मेट्रिक के औसत और स्टैंडर्ड डेविएशन का हिसाब लगाया जाता है.

उदाहरण के लिए, मान लें कि आपके डेटासेट में 120 उदाहरण हैं. मान लें कि आपने k को 4 पर सेट करने का फ़ैसला लिया है. इसलिए, उदाहरणों को शफ़ल करने के बाद, डेटासेट को 30 उदाहरणों के चार बराबर ग्रुप में बांटें और चार ट्रेनिंग और टेस्टिंग राउंड चलाएं:

डेटासेट को उदाहरणों के चार बराबर ग्रुप में बांटा गया है. पहले राउंड में,
          पहले तीन ग्रुप का इस्तेमाल ट्रेनिंग के लिए किया जाता है और आखिरी ग्रुप का इस्तेमाल टेस्टिंग के लिए किया जाता है. दूसरे राउंड में, पहले दो ग्रुप और आखिरी ग्रुप का इस्तेमाल ट्रेनिंग के लिए किया जाता है. वहीं, तीसरे ग्रुप का इस्तेमाल टेस्टिंग के लिए किया जाता है. तीसरे राउंड में, पहले ग्रुप और आखिरी दो ग्रुप का इस्तेमाल,
          ट्रेनिंग के लिए किया जाता है. वहीं, दूसरे ग्रुप का इस्तेमाल टेस्टिंग के लिए किया जाता है.
          चौथे राउंड में, पहले ग्रुप का इस्तेमाल टेस्टिंग के लिए किया जाता है, जबकि आखिरी तीन ग्रुप का इस्तेमाल ट्रेनिंग के लिए किया जाता है.

उदाहरण के लिए, मीन स्क्वेयर एरर (एमएसई), लीनियर रिग्रेशन मॉडल के लिए सबसे अहम मेट्रिक हो सकती है. इसलिए, आपको चारों राउंड में एमएसई का औसत और स्टैंडर्ड डेविएशन दिखेगा.

के-मीन

#clustering

क्लस्टरिंग का एक लोकप्रिय एल्गोरिदम, जो बिना निगरानी वाली लर्निंग में उदाहरणों को ग्रुप करता है. k-means एल्गोरिदम, मुख्य रूप से ये काम करता है:

  • यह बार-बार सबसे अच्छे k सेंटर पॉइंट (जिन्हें सेंट्रॉइड कहा जाता है) का पता लगाता है.
  • हर उदाहरण को सबसे नज़दीकी सेंट्रोइड को असाइन करता है. एक ही सेंट्राइड के आस-पास मौजूद उदाहरण, एक ही ग्रुप से जुड़े होते हैं.

k-means एल्गोरिदम, सेंट्रोइड की जगहें चुनता है, ताकि हर उदाहरण से उसके सबसे नज़दीकी सेंट्रोइड की दूरी के स्क्वेयर को कम किया जा सके.

उदाहरण के लिए, कुत्ते की ऊंचाई और चौड़ाई के बीच के संबंध का यह प्लॉट देखें:

कई दर्जन डेटा पॉइंट वाला कार्टेशियन प्लॉट.

अगर k=3 है, तो k-means एल्गोरिदम तीन सेंट्राइड तय करेगा. हर उदाहरण को उसके सबसे नज़दीकी सेंट्रोइड को असाइन किया जाता है. इससे तीन ग्रुप बनते हैं:

पिछले इलस्ट्रेशन में दिखाया गया कैटिसियन प्लॉट, जिसमें तीन सेंट्राइड जोड़े गए हैं.
          पिछले डेटा पॉइंट को तीन अलग-अलग ग्रुप में बांटा जाता है.
          हर ग्रुप में, किसी खास सेंट्राइड के सबसे करीब मौजूद डेटा पॉइंट होते हैं.

मान लें कि कोई मैन्युफ़ैक्चरर, कुत्तों के लिए छोटे, मीडियम, और बड़े स्वेटर के सही साइज़ तय करना चाहता है. तीन सेंट्राइड, उस क्लस्टर में मौजूद हर कुत्ते की औसत ऊंचाई और औसत चौड़ाई की पहचान करते हैं. इसलिए, मैन्युफ़ैक्चरर को स्वेटर के साइज़, उन तीन सेंट्राइड पर आधारित करने चाहिए. ध्यान दें कि आम तौर पर, क्लस्टर का सेंट्राइड, क्लस्टर का उदाहरण नहीं होता.

ऊपर दिए गए उदाहरणों में, सिर्फ़ दो एट्रिब्यूट (ऊंचाई और चौड़ाई) वाले उदाहरणों के लिए, क-मीन्स का इस्तेमाल दिखाया गया है. ध्यान दें कि k-means, कई सुविधाओं के उदाहरणों को ग्रुप कर सकता है.

के-मीडियन

#clustering

k-means से मिलता-जुलता क्लस्टरिंग एल्गोरिदम. दोनों के बीच का फ़र्क़ इस तरह है:

  • क-मीन्स में, सेंट्रोइड तय करने के लिए, सेंट्रोइड के संभावित उम्मीदवार और उसके हर उदाहरण के बीच की दूरी के वर्ग का योग कम से कम किया जाता है.
  • क-मीडियन में, सेंट्रोइड का पता लगाने के लिए, सेंट्रोइड के उम्मीदवार और उसके हर उदाहरण के बीच की दूरी के योग को कम किया जाता है.

ध्यान दें कि दूरी की परिभाषाएं भी अलग-अलग हैं:

  • के-मीन, उदाहरण के लिए, सेंट्राइड से इयूक्लिडियन दूरी पर निर्भर करता है. (दो डाइमेंशन में, यूक्लिडियन दूरी का मतलब है कि पाइथागोरस प्रमेय का इस्तेमाल करके, कर्ण का हिसाब लगाना.) उदाहरण के लिए, (2,2) और (5,-2) के बीच का k-means डिस्टेंस यह होगा:
$$ {\text{Euclidean distance}} = {\sqrt {(2-5)^2 + (2--2)^2}} = 5 $$
  • क-मीडियन, सेंट्राइड से किसी उदाहरण तक की मैनहैटन दूरी पर निर्भर करता है. यह दूरी, हर डाइमेंशन में मौजूद एब्सोल्यूट डेल्टा का कुल योग होती है. उदाहरण के लिए, (2,2) और (5,-2) के बीच का k-मीडियन डिस्टेंस यह होगा:
$$ {\text{Manhattan distance}} = \lvert 2-5 \rvert + \lvert 2--2 \rvert = 7 $$

L

L0 रेगुलराइज़ेशन

#fundamentals

रेगुलराइज़ेशन का एक टाइप, जो किसी मॉडल में शून्य से ज़्यादा वेट की कुल संख्या पर जुर्माना लगाता है. उदाहरण के लिए, ऐसे मॉडल को ज़्यादा दंडित किया जाएगा जिसमें 11 ग़ैर-शून्य वैल्यू वाली वैल्यू हैं. वहीं, ऐसे मॉडल को कम दंडित किया जाएगा जिसमें 10 ग़ैर-शून्य वैल्यू वाली वैल्यू हैं.

L0 रेगुलराइज़ेशन को कभी-कभी L0-नॉर्म रेगुलराइज़ेशन भी कहा जाता है.

L1 लॉस

#fundamentals

लॉस फ़ंक्शन, जो असल लेबल वैल्यू और मॉडल की अनुमानित वैल्यू के बीच के अंतर की एब्सोल्यूट वैल्यू का हिसाब लगाता है. उदाहरण के लिए, यहां पांच उदाहरणों वाले बैच के लिए, L1 लॉस का हिसाब लगाया गया है:

उदाहरण की असल वैल्यू मॉडल की अनुमानित वैल्यू डेल्टा की ऐब्सलूट वैल्यू
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = L1 लॉस

L2 लॉस की तुलना में, L1 लॉस, आउटलायर के लिए कम संवेदनशील होता है.

कुल गड़बड़ी का औसत, हर उदाहरण के लिए L1 का औसत नुकसान होता है.

L1 रेगुलराइज़ेशन

#fundamentals

रेगुलराइज़ेशन का एक टाइप, जो वेट की कुल वैल्यू के हिसाब से, वेट पर जुर्माना लगाता है. L1 रेगुलराइज़ेशन से, काम की नहीं या कम काम की सुविधाओं के वेट को ठीक 0 पर सेट करने में मदद मिलती है. मॉडल से, वह सुविधा हटा दी जाती है जिसका वेट 0 होता है.

L2 रेगुलराइज़ेशन के साथ तुलना करें.

L2 लॉस

#fundamentals

लॉस फ़ंक्शन, जो असल लेबल वैल्यू और मॉडल की अनुमानित वैल्यू के बीच के अंतर का स्क्वेयर कैलकुलेट करता है. उदाहरण के लिए, यहां पांच उदाहरणों के बैच के लिए, L2 लॉस का हिसाब लगाया गया है:

उदाहरण की असल वैल्यू मॉडल की अनुमानित वैल्यू डेल्टा का स्क्वेयर
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = L2 हार

स्क्वेयर करने की वजह से, L2 लॉस, आउटलायर के असर को बढ़ा देता है. इसका मतलब है कि L2 लॉस, L1 लॉस के मुकाबले खराब अनुमानों पर ज़्यादा तेज़ी से प्रतिक्रिया करता है. उदाहरण के लिए, पिछले बैच के लिए L1 लॉस, 16 के बजाय 8 होगा. ध्यान दें कि 16 में से 9 आउटलायर, एक ही डेटा पॉइंट के हैं.

रेग्रेसन मॉडल आम तौर पर, लॉस फ़ंक्शन के तौर पर L2 लॉस का इस्तेमाल करते हैं.

वर्ग में गड़बड़ी का माध्य, हर उदाहरण के लिए L2 का औसत लॉस होता है. स्क्वेयर्ड लॉस, L2 लॉस का दूसरा नाम है.

L2 रेगुलराइज़ेशन

#fundamentals

रेगुलराइज़ेशन का एक टाइप, जो वज़न के स्क्वेयर के योग के अनुपात में, वज़न पर जुर्माना लगाता है. L2 रेगुलराइज़ेशन की मदद से, आउटलायर वेट (ज़्यादा पॉज़िटिव या कम नेगेटिव वैल्यू वाले वेट) को 0 के करीब लाया जा सकता है, लेकिन पूरी तरह से 0 नहीं. जिन सुविधाओं की वैल्यू 0 के बहुत करीब होती है वे मॉडल में बनी रहती हैं, लेकिन मॉडल के अनुमान पर उनका ज़्यादा असर नहीं पड़ता.

L2 रेगुलराइज़ेशन, लीनियर मॉडल में जनरलाइज़ेशन को हमेशा बेहतर बनाता है.

L1 रेगुलराइज़ेशन के साथ तुलना करें.

लेबल

#fundamentals

सुपरवाइज़्ड मशीन लर्निंग में, उदाहरण का "जवाब" या "नतीजा" हिस्सा.

हर लेबल किए गए उदाहरण में एक या उससे ज़्यादा सुविधाएं और एक लेबल होता है. उदाहरण के लिए, स्पैम का पता लगाने वाले डेटासेट में, लेबल "स्पैम" या "स्पैम नहीं" हो सकता है. बारिश के डेटासेट में, लेबल किसी खास अवधि के दौरान हुई बारिश की मात्रा हो सकती है.

लेबल किए गए उदाहरण

#fundamentals

एक ऐसा उदाहरण जिसमें एक या उससे ज़्यादा सुविधाएं और एक लेबल शामिल हैं. उदाहरण के लिए, नीचे दी गई टेबल में घर की वैल्यू तय करने वाले मॉडल के तीन उदाहरण दिए गए हैं. इनमें से हर उदाहरण में तीन सुविधाएं और एक लेबल है:

कमरों की संख्या बाथरूम की संख्या घर की उम्र मकान की कीमत (लेबल)
3 2 15 3,45,000 डॉलर
2 1 72 1,79,000 डॉलर
4 2 34 3,92,000 डॉलर

सुपरवाइज़्ड मशीन लर्निंग में, मॉडल लेबल किए गए उदाहरणों पर ट्रेनिंग लेते हैं और लेबल नहीं किए गए उदाहरणों के आधार पर अनुमान लगाते हैं.

लेबल किए गए उदाहरण और लेबल नहीं किए गए उदाहरणों के बीच अंतर.

लेबल का लीक होना

मॉडल के डिज़ाइन में गड़बड़ी, जिसमें सुविधा, लेबल के लिए प्रॉक्सी है. उदाहरण के लिए, बाइनरी क्लासिफ़िकेशन मॉडल का इस्तेमाल करके यह अनुमान लगाया जा सकता है कि कोई संभावित ग्राहक कोई खास प्रॉडक्ट खरीदेगा या नहीं. मान लें कि मॉडल की एक सुविधा, SpokeToCustomerAgent नाम का बूलियन है. इसके अलावा, मान लें कि संभावित ग्राहक के प्रॉडक्ट खरीदने के बाद ही, ग्राहक एजेंट को असाइन किया जाता है. ट्रेनिंग के दौरान, मॉडल SpokeToCustomerAgent और लेबल के बीच के संबंध को तुरंत समझ लेगा.

lambda

#fundamentals

नियमित किराया का दूसरा नाम.

Lambda एक ओवरलोड किया गया शब्द है. यहां हम नियमों के मुताबिक बनाने की प्रक्रिया में, इस शब्द की परिभाषा पर फ़ोकस कर रहे हैं.

LaMDA (बातचीत आधारित ऐप्लिकेशन के लिए भाषा का मॉडल)

#language

Transformer पर आधारित लार्ज लैंग्वेज मॉडल. इसे Google ने तैयार किया है. यह बड़े डायलॉग डेटासेट पर ट्रेन किया गया है. इससे बातचीत के हिसाब से सटीक जवाब जनरेट किए जा सकते हैं.

LaMDA: बातचीत की हमारी बेहतरीन टेक्नोलॉजी में इसकी खास जानकारी दी गई है.

लैंडमार्क

#image

खास जानकारी के लिए इस्तेमाल होने वाला समानार्थी शब्द.

लैंग्वेज मॉडल

#language

यह एक मॉडल है, जो टोकन के लंबे क्रम में किसी टोकन या टोकन के क्रम के होने की संभावना का अनुमान लगाता है.

लार्ज लैंग्वेज मॉडल

#language

कम से कम, ऐसा लैंग्वेज मॉडल जिसमें पैरामीटर की संख्या बहुत ज़्यादा हो. आम तौर पर, ट्रांसफ़ॉर्मर पर आधारित कोई भी भाषा मॉडल, जैसे कि Gemini या GPT.

लैटेंट स्पेस

#language

स्पेस एम्बेड करना का समानार्थी शब्द.

लेयर

#fundamentals

न्यूरल नेटवर्क में न्यूरॉन का एक सेट. लेयर के तीन सामान्य टाइप ये हैं:

उदाहरण के लिए, यहां दिए गए इलस्ट्रेशन में एक इनपुट लेयर, दो हिडन लेयर, और एक आउटपुट लेयर वाला न्यूरल नेटवर्क दिखाया गया है:

एक इनपुट लेयर, दो हिडन लेयर, और एक आउटपुट लेयर वाला न्यूरल नेटवर्क. इनपुट लेयर में दो सुविधाएं होती हैं. पहली
          हिडन लेयर में तीन न्यूरॉन और दूसरी हिडन लेयर में दो न्यूरॉन होते हैं. आउटपुट लेयर में एक ही नोड होता है.

TensorFlow में, लेयर भी Python फ़ंक्शन हैं. ये टेंसर और कॉन्फ़िगरेशन के विकल्पों को इनपुट के तौर पर लेते हैं और आउटपुट के तौर पर दूसरे टेंसर जनरेट करते हैं.

Layers API (tf.layers)

#TensorFlow

लेयर के कॉम्पोज़िशन के तौर पर, डीप न्यूरल नेटवर्क बनाने के लिए TensorFlow एपीआई. Layers API की मदद से, अलग-अलग तरह की लेयर बनाई जा सकती हैं. जैसे:

Layers API, Keras लेयर एपीआई के नियमों का पालन करता है. इसका मतलब है कि अलग प्रीफ़िक्स के अलावा, Layers API के सभी फ़ंक्शन के नाम और हस्ताक्षर, Keras layers API के उन फ़ंक्शन के नाम और हस्ताक्षर जैसे ही होते हैं.

पत्ती

#df

डिसीज़न ट्री में मौजूद कोई भी एंडपॉइंट. शर्त के उलट, लीफ कोई जांच नहीं करता. इसके बजाय, पत्ती एक संभावित अनुमान है. लीफ़, अनुमान के पाथ का टर्मिनल नोड भी होता है.

उदाहरण के लिए, नीचे दिए गए फ़ैसला ट्री में तीन लीफ़ हैं:

दो शर्तों वाला डिसीज़न ट्री, जिसमें तीन लीफ़ हैं.

लर्निंग इंटरप्रिटेबिलिटी टूल (एलआईटी)

विज़ुअल, इंटरैक्टिव मॉडल-समझने और डेटा विज़ुअलाइज़ेशन टूल.

मॉडल को इंटरप्रेट करने या टेक्स्ट, इमेज, और टेबल वाले डेटा को विज़ुअलाइज़ करने के लिए, ओपन-सोर्स LIT का इस्तेमाल किया जा सकता है.

सीखने की दर

#fundamentals

यह एक फ़्लोटिंग-पॉइंट नंबर है, जो ग्रेडिएंट डिसेंट एल्गोरिदम को बताता है कि हर इटरेशन पर वेट और बायस को कितनी ज़ोर से अडजस्ट करना है. उदाहरण के लिए, 0.3 की लर्निंग रेट, 0.1 की लर्निंग रेट के मुकाबले, वज़न और बायस को तीन गुना ज़्यादा तेज़ी से अडजस्ट करेगी.

लर्निंग रेट एक मुख्य हाइपरपैरामीटर है. अगर आपने लर्निंग रेट को बहुत कम सेट किया है, तो ट्रेनिंग में बहुत ज़्यादा समय लगेगा. अगर आपने लर्निंग रेट को बहुत ज़्यादा सेट किया है, तो ग्रेडिएंट डिसेंट को अक्सर कंसर्वेंस तक पहुंचने में परेशानी होती है.

लीस्ट स्क्वेयर रिग्रेशन

लीनियर रिग्रेशन मॉडल, जिसे L2 लॉस को कम करके ट्रेन किया गया है.

लेवेंश्टाइन डिस्टेंस

#language
#metric

बदलाव की दूरी मेट्रिक, जो एक शब्द को दूसरे में बदलने के लिए, मिटाने, डालने, और बदलने के कम से कम ऑपरेशन का हिसाब लगाती है. उदाहरण के लिए, "heart" और "darts" शब्दों के बीच का लेवनश्टाइन डिस्टेंस तीन है, क्योंकि एक शब्द को दूसरे में बदलने के लिए, यहां दिए गए तीन बदलाव सबसे कम हैं:

  1. heart → deart ("h" को "d" से बदलें)
  2. deart → dart ("e" मिटाएं)
  3. डार्ट → डार्ट ("s" डालें)

ध्यान दें कि तीन बदलावों का यह क्रम ही एकमात्र तरीका नहीं है.

रेखीय

#fundamentals

दो या उससे ज़्यादा वैरिएबल के बीच का ऐसा संबंध जिसे सिर्फ़ जोड़ और गुणा के ज़रिए दिखाया जा सकता है.

लीनियर रिलेशनशिप का प्लॉट एक लाइन होती है.

नॉनलाइनर के साथ कंट्रास्ट करें.

लीनियर मॉडल

#fundamentals

मॉडल, जो अनुमान लगाने के लिए, हर सुविधा के लिए एक वज़न असाइन करता है. (लीनियर मॉडल में भी बायस शामिल होता है.) इसके उलट, डीप मॉडल में, फ़ीचर और अनुमान के बीच का संबंध आम तौर पर नॉन-लाइनर होता है.

आम तौर पर, डीप मॉडल के मुकाबले लीनियर मॉडल को ट्रेन करना आसान होता है. साथ ही, इन मॉडल को समझना भी आसान होता है. हालांकि, डीप मॉडल, सुविधाओं के बीच जटिल संबंधों को समझ सकते हैं.

लीनियर रिग्रेशन और लॉजिस्टिक रिग्रेशन, दो तरह के लीनियर मॉडल हैं.

लीनियर रिग्रेशन

#fundamentals

मशीन लर्निंग मॉडल का एक टाइप, जिसमें ये दोनों बातें सही हों:

  • मॉडल एक लीनियर मॉडल है.
  • अनुमान, फ़्लोटिंग-पॉइंट वैल्यू होती है. (यह लीनियर रिग्रेशन का रिग्रेशन हिस्सा है.)

लीनियर रिग्रेशन और लॉजिस्टिक रिग्रेशन के बीच अंतर करें. साथ ही, कैटगरी के साथ रेग्रेसन की तुलना करें.

LIT

लर्निंग इंटरप्रिटेबिलिटी टूल (एलआईटी) का छोटा नाम. इसे पहले भाषा इंटरप्रिटेबिलिटी टूल कहा जाता था.

LLM

#language
#generativeAI

लार्ज लैंग्वेज मॉडल का छोटा नाम.

एलएलएम के आकलन (evals)

#language
#generativeAI

लार्ज लैंग्वेज मॉडल (एलएलएम) की परफ़ॉर्मेंस का आकलन करने के लिए, मेट्रिक और मानदंडों का सेट. हाई लेवल पर, एलएलएम के आकलन:

  • शोधकर्ताओं को उन क्षेत्रों की पहचान करने में मदद करना जहां एलएलएम में सुधार की ज़रूरत है.
  • ये अलग-अलग एलएलएम की तुलना करने और किसी खास टास्क के लिए सबसे अच्छे एलएलएम की पहचान करने में मदद करते हैं.
  • यह पक्का करने में मदद मिलती है कि एलएलएम का इस्तेमाल सुरक्षित और सही तरीके से किया जा रहा है.

लॉजिस्टिक रिग्रेशन

#fundamentals

रिग्रेशन मॉडल का एक टाइप, जो किसी संभावना का अनुमान लगाता है. लॉजिस्टिक रिग्रेशन मॉडल की ये विशेषताएं हैं:

  • लेबल कैटगरी के हिसाब से है. लॉजिस्टिक रिग्रेशन का मतलब आम तौर पर बाइनरी लॉजिस्टिक रिग्रेशन से होता है. यह एक ऐसा मॉडल है जो दो संभावित वैल्यू वाले लेबल के लिए संभावनाओं का हिसाब लगाता है. मल्टीनोमियल लॉजिस्टिक रिग्रेशन, एक ऐसा वैरिएंट है जो आम तौर पर इस्तेमाल नहीं किया जाता. यह दो से ज़्यादा संभावित वैल्यू वाले लेबल के लिए, संभावनाओं का हिसाब लगाता है.
  • ट्रेनिंग के दौरान लॉस फ़ंक्शन, लॉग लॉस होता है. (दो से ज़्यादा संभावित वैल्यू वाले लेबल के लिए, एक साथ कई लॉग लॉस यूनिट रखी जा सकती हैं.)
  • मॉडल में डीप न्यूरल नेटवर्क नहीं, बल्कि लीनियर आर्किटेक्चर है. हालांकि, इस परिभाषा का बाकी हिस्सा उन डीप मॉडल पर भी लागू होता है जो कैटगरी लेबल के लिए संभावनाओं का अनुमान लगाते हैं.

उदाहरण के लिए, लॉजिस्टिक रिग्रेशन मॉडल का इस्तेमाल करके, किसी इनपुट ईमेल के स्पैम होने या न होने की संभावना का हिसाब लगाया जा सकता है. मान लें कि अनुमान लगाने के दौरान, मॉडल का अनुमान 0.72 है. इसलिए, मॉडल इन चीज़ों का अनुमान लगा रहा है:

  • ईमेल के स्पैम होने की 72% संभावना है.
  • ईमेल के स्पैम न होने की संभावना 28% है.

लॉजिस्टिक रिग्रेशन मॉडल, दो चरणों वाले इस आर्किटेक्चर का इस्तेमाल करता है:

  1. मॉडल, इनपुट फ़ीचर का लीनियर फ़ंक्शन लागू करके, रॉ अनुमान (y') जनरेट करता है.
  2. मॉडल, रॉ अनुमान का इस्तेमाल सिग्मॉइड फ़ंक्शन के इनपुट के तौर पर करता है. यह रॉ अनुमान को 0 से 1 के बीच की वैल्यू में बदल देता है.

किसी भी रिग्रेशन मॉडल की तरह, लॉजिस्टिक रिग्रेशन मॉडल भी किसी संख्या का अनुमान लगाता है. हालांकि, आम तौर पर यह संख्या, बाइनरी क्लासिफ़िकेशन मॉडल का हिस्सा बन जाती है. ऐसा इस तरह होता है:

  • अगर अनुमानित संख्या, क्लासिफ़िकेशन थ्रेशोल्ड से ज़्यादा है, तो बाइनरी क्लासिफ़िकेशन मॉडल, पॉज़िटिव क्लास का अनुमान लगाता है.
  • अगर अनुमानित संख्या, क्लासिफ़िकेशन थ्रेशोल्ड से कम है, तो बाइनरी क्लासिफ़िकेशन मॉडल, नेगेटिव क्लास का अनुमान लगाता है.

लॉगिट

कच्चे (नॉर्मलाइज़ नहीं किए गए) अनुमान का वेक्टर, जिसे क्लासिफ़िकेशन मॉडल जनरेट करता है. आम तौर पर, इसे नॉर्मलाइज़ेशन फ़ंक्शन में पास किया जाता है. अगर मॉडल मल्टी-क्लास क्लासिफ़िकेशन वाली समस्या को हल कर रहा है, तो लॉगिट आम तौर पर सॉफ़्टमैक्स फ़ंक्शन का इनपुट बन जाते हैं. इसके बाद, सॉफ़्टमैक्स फ़ंक्शन, हर संभावित क्लास के लिए एक वैल्यू के साथ, (नॉर्मलाइज़ की गई) संभावनाओं का वेक्टर जनरेट करता है.

लॉग लॉस

#fundamentals

बाइनरी लॉजिस्टिक रिग्रेशन में इस्तेमाल किया जाने वाला लॉस फ़ंक्शन.

लॉग-ऑड्स

#fundamentals

किसी इवेंट की संभावनाओं का लॉगरिदम.

लॉन्ग शॉर्ट-टर्म मेमोरी (एलएसटीएम)

#seq

रीकurrent न्यूरल नेटवर्क में एक तरह की सेल, जिसका इस्तेमाल ऐप्लिकेशन में डेटा के क्रम को प्रोसेस करने के लिए किया जाता है. जैसे, लिखावट पहचानने, मशीन से अनुवाद करने, और इमेज के कैप्शन देने जैसे ऐप्लिकेशन. एलएसटीएम, वैनिशिंग ग्रेडिएंट की समस्या को हल करते हैं. यह समस्या, लंबे डेटा क्रम की वजह से आरएनएन को ट्रेनिंग देते समय होती है. एलएसटीएम, आरएनएन की पिछली सेल के नए इनपुट और कॉन्टेक्स्ट के आधार पर, इंटरनल मेमोरी स्टेटस में इतिहास को बनाए रखते हैं.

LoRA

#language
#generativeAI

कम रैंक के लिए अडैप्ट करने की सुविधा का छोटा नाम.

हार

#fundamentals

सुपरवाइज़्ड मॉडल की ट्रेनिंग के दौरान, यह मेज़र किया जाता है कि मॉडल का अनुमान, उसके लेबल से कितना अलग है.

लॉस फ़ंक्शन, लॉस का हिसाब लगाता है.

लॉस एग्रीगेटर

मशीन लर्निंग एल्गोरिदम का एक टाइप, जो कई मॉडल के अनुमान को जोड़कर, मॉडल की परफ़ॉर्मेंस को बेहतर बनाता है. साथ ही, एक अनुमान लगाने के लिए उन अनुमान का इस्तेमाल करता है. इस वजह से, लॉस एग्रीगेटर, अनुमान के अंतर को कम कर सकता है और अनुमान की सटीकता को बेहतर बना सकता है.

लॉस कर्व

#fundamentals

ट्रेनिंग के इटरेशन की संख्या के फ़ंक्शन के तौर पर, लॉस का प्लॉट. नीचे दिया गया प्लॉट, लॉस कर्व को दिखाता है:

लॉस बनाम ट्रेनिंग के दोहराव का कार्टेशियन ग्राफ़, जिसमें शुरुआती दोहरावों के लिए लॉस में तेज़ गिरावट दिख रही है. इसके बाद, धीरे-धीरे गिरावट आ रही है और आखिरी दोहरावों के दौरान लॉस में कोई बदलाव नहीं हुआ है.

लॉस कर्व से यह पता चलता है कि आपका मॉडल कब कंसर्वेटिव या ओवरफ़िट हो रहा है.

लॉस कर्व में, नीचे दिए गए सभी तरह के नुकसान को प्लॉट किया जा सकता है:

जनरलाइज़ेशन कर्व भी देखें.

लॉस फ़ंक्शन

#fundamentals

ट्रेनिंग या जांच के दौरान, एक ऐसा गणितीय फ़ंक्शन जो उदाहरणों के बैच पर नुकसान का हिसाब लगाता है. लॉस फ़ंक्शन, अच्छे अनुमान लगाने वाले मॉडल के लिए कम लॉस दिखाता है. वहीं, खराब अनुमान लगाने वाले मॉडल के लिए ज़्यादा लॉस दिखाता है.

आम तौर पर, ट्रेनिंग का लक्ष्य, लॉस फ़ंक्शन से मिलने वाले लॉस को कम करना होता है.

कई तरह के लॉस फ़ंक्शन मौजूद हैं. जिस तरह का मॉडल बनाया जा रहा है उसके लिए सही लॉस फ़ंक्शन चुनें. उदाहरण के लिए:

लॉस सरफ़ेस

वज़न बनाम वज़न घटाने की जानकारी देने वाला ग्राफ़. ग्रेडिएंट डिसेंट का मकसद, ऐसे वेट ढूंढना है जिनके लिए लॉस सरफ़ेस, लोकल मिनिमम पर हो.

कम रैंक वाला अडैप्टैबिलिटी (LoRA)

#language
#generativeAI

बेहतर बनाने के लिए, पैरामीटर के हिसाब से बेहतर तकनीक. यह मॉडल के पहले से ट्रेन किए गए वज़न को "फ़्रीज़" कर देती है, ताकि उनमें बदलाव न किया जा सके. इसके बाद, मॉडल में ट्रेन किए जा सकने वाले वज़न का एक छोटा सेट डालती है. ट्रेन किए जा सकने वाले वेट का यह सेट, बेस मॉडल से काफ़ी छोटा होता है. इसलिए, इसे ट्रेन करने में काफ़ी कम समय लगता है. इसे "अपडेट मैट्रिक" भी कहा जाता है.

LoRA से ये फ़ायदे मिलते हैं:

  • इससे उस डोमेन के लिए मॉडल के अनुमान की क्वालिटी बेहतर होती है जहां फ़ाइन-ट्यूनिंग लागू की जाती है.
  • यह उन तकनीकों की तुलना में तेज़ी से फ़ाइन-ट्यून करता है जिनमें मॉडल के सभी पैरामीटर को फ़ाइन-ट्यून करना पड़ता है.
  • एक ही बेस मॉडल को शेयर करने वाले कई खास मॉडल को एक साथ दिखाने की सुविधा चालू करके, अनुमान लगाने के लिए कंप्यूटेशनल लागत को कम करता है.

LSTM

#seq

लॉन्ग शॉर्ट-टर्म मेमोरी का छोटा नाम.

M

मशीन लर्निंग

#fundamentals

ऐसा प्रोग्राम या सिस्टम जो इनपुट डेटा से, मॉडल को ट्रेन करता है. ट्रेन किया गया मॉडल, उसी डिस्ट्रिब्यूशन से मिले नए (पहले कभी न देखे गए) डेटा से काम के अनुमान लगा सकता है जिसका इस्तेमाल मॉडल को ट्रेन करने के लिए किया गया था.

मशीन लर्निंग का मतलब, इन प्रोग्राम या सिस्टम से जुड़े अध्ययन के क्षेत्र से भी है.

मशीन से अनुवाद

#generativeAI

टेक्स्ट को एक भाषा से दूसरी भाषा में बदलने के लिए, आम तौर पर मशीन लर्निंग मॉडल जैसे सॉफ़्टवेयर का इस्तेमाल करना. उदाहरण के लिए, अंग्रेज़ी से जैपनीज़ में.

ज़्यादातर क्लास

#fundamentals

क्लास के असंतुलित डेटासेट में ज़्यादा सामान्य लेबल. उदाहरण के लिए, अगर किसी डेटासेट में 99% नेगेटिव लेबल और 1% पॉज़िटिव लेबल हैं, तो नेगेटिव लेबल ज़्यादातर क्लास के होते हैं.

माइनॉरिटी क्लास के साथ कंट्रास्ट करें.

मार्कोव डिसीज़न प्रोसेस (एमडीपी)

#rl

फ़ैसला लेने वाले मॉडल को दिखाने वाला ग्राफ़, जहां मार्कोव प्रॉपर्टी के तहत, स्टेटस के क्रम में नेविगेट करने के लिए फ़ैसले (या कार्रवाइयां) लिए जाते हैं. रीइंफ़ोर्समेंट लर्निंग में, एक स्टेटस से दूसरे स्टेटस में ट्रांज़िशन करने पर, संख्या के तौर पर इनाम मिलता है.

मार्कोव प्रॉपर्टी

#rl

कुछ एनवायरमेंट की प्रॉपर्टी, जहां स्टेटस ट्रांज़िशन पूरी तरह से मौजूदा स्टेटस और एजेंट की कार्रवाई में मौजूद जानकारी से तय होते हैं.

मास्क किया गया लैंग्वेज मॉडल

#language

यह एक भाषा मॉडल है, जो किसी क्रम में खाली जगहों को भरने के लिए, उम्मीदवार टोकनों की संभावना का अनुमान लगाता है. उदाहरण के लिए, मास्क किया गया भाषा मॉडल, नीचे दिए गए वाक्य में अंडरलाइन किए गए शब्दों की जगह, संभावित शब्दों की संभावनाओं का हिसाब लगा सकता है:

टोपी में मौजूद ____ वापस आ गया.

आम तौर पर, दस्तावेज़ में अंडरलाइन के बजाय स्ट्रिंग "MASK" का इस्तेमाल किया जाता है. उदाहरण के लिए:

टोपी में "MASK" वापस आ गया.

ज़्यादातर आधुनिक मास्क किए गए भाषा मॉडल, दोतरफ़ा होते हैं.

matplotlib

यह एक ओपन सोर्स Python 2D प्लॉटिंग लाइब्रेरी है. matplotlib की मदद से, मशीन लर्निंग के अलग-अलग पहलुओं को विज़ुअलाइज़ किया जा सकता है.

मैट्रिक्स फ़ैक्टरिज़ेशन

#recsystems

गणित में, मैट्रिक्स ढूंढने का एक तरीका, जिसका डॉट प्रॉडक्ट टारगेट मैट्रिक्स के करीब होता है.

सुझाव देने वाले सिस्टम में, टारगेट मैट्रिक में अक्सर आइटम पर उपयोगकर्ताओं की रेटिंग होती है. उदाहरण के लिए, मूवी के सुझाव देने वाले सिस्टम के लिए टारगेट मैट्रिक कुछ इस तरह दिख सकती है. इसमें, पॉज़िटिव पूर्णांक, उपयोगकर्ता की रेटिंग हैं और 0 का मतलब है कि उपयोगकर्ता ने मूवी को रेटिंग नहीं दी है:

  कैसाब्लांका द फ़िलाडेल्फ़िया स्टोरी Black Panther वंडर वुमन दिल से
उपयोगकर्ता 1 5.0 3.0 0.0 2.0 0.0
उपयोगकर्ता 2 4.0 0.0 0.0 1.0 5.0
उपयोगकर्ता 3 3.0 1.0 4.0 5.0 0.0

फ़िल्म के सुझाव देने वाले सिस्टम का मकसद, रेटिंग नहीं दी गई फ़िल्मों के लिए उपयोगकर्ताओं की रेटिंग का अनुमान लगाना है. उदाहरण के लिए, क्या उपयोगकर्ता 1 को ब्लैक पैंथर पसंद आएगा?

सुझाव देने वाले सिस्टम के लिए एक तरीका यह है कि इन दो मैट्रिक को जनरेट करने के लिए, मैट्रिक के फ़ैक्टर का इस्तेमाल किया जाए:

  • उपयोगकर्ता मैट्रिक, जिसका साइज़ उपयोगकर्ताओं की संख्या X एम्बेड किए गए डाइमेंशन की संख्या के हिसाब से होता है.
  • आइटम मैट्रिक, जिसका साइज़ एम्बेड किए गए डाइमेंशन की संख्या x आइटम की संख्या के हिसाब से होता है.

उदाहरण के लिए, तीन उपयोगकर्ताओं और पांच आइटम पर मैट्रिक फ़ैक्टरिज़ेशन का इस्तेमाल करने से, उपयोगकर्ता मैट्रिक और आइटम मैट्रिक इस तरह की हो सकती है:

User Matrix                 Item Matrix

1.1   2.3           0.9   0.2   1.4    2.0   1.2
0.6   2.0           1.7   1.2   1.2   -0.1   2.1
2.5   0.5

उपयोगकर्ता मैट्रिक और आइटम मैट्रिक के डॉट प्रॉडक्ट से, सुझाव वाली एक मैट्रिक बनती है. इसमें न सिर्फ़ उपयोगकर्ता की ओरिजनल रेटिंग होती है, बल्कि उन फ़िल्मों के लिए भी अनुमान होते हैं जिन्हें हर उपयोगकर्ता ने नहीं देखा है. उदाहरण के लिए, मान लें कि उपयोगकर्ता 1 ने Casablanca को 5.0 रेटिंग दी है. उम्मीद है कि सुझाव मैट्रिक में उस सेल से जुड़ा बिंदु प्रॉडक्ट करीब 5.0 होगा. यह इस तरह दिखता है:

(1.1 * 0.9) + (2.3 * 1.7) = 4.9

सबसे अहम बात यह है कि क्या उपयोगकर्ता 1 को ब्लैक पैंथर पसंद आएगा? पहली पंक्ति और तीसरे कॉलम के डॉट प्रॉडक्ट से, रेटिंग का अनुमानित वैल्यू 4.3 मिलती है:

(1.1 * 1.4) + (2.3 * 1.2) = 4.3

मैट्रिक फ़ैक्टरिज़ेशन से आम तौर पर, उपयोगकर्ता मैट्रिक और आइटम मैट्रिक मिलती है. ये दोनों मैट्रिक, टारगेट मैट्रिक के मुकाबले काफ़ी छोटी होती हैं.

कुल गड़बड़ी का मध्यमान (एमएई)

L1 लॉस का इस्तेमाल करने पर, हर उदाहरण के लिए औसत लॉस. कुल गड़बड़ी का मध्यमान इस तरह से कैलकुलेट करें:

  1. किसी बैच के लिए L1 लॉस का हिसाब लगाएं.
  2. L1 लॉस को बैच में मौजूद उदाहरणों की संख्या से भाग दें.

उदाहरण के लिए, पांच उदाहरणों के इस बैच पर L1 लॉस का हिसाब लगाएं:

उदाहरण की असल वैल्यू मॉडल की अनुमानित वैल्यू नुकसान (असल और अनुमानित वैल्यू के बीच का अंतर)
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = L1 लॉस

इसलिए, L1 लॉस 8 है और उदाहरणों की संख्या 5 है. इसलिए, कुल गड़बड़ी का मध्यमान यह है:

Mean Absolute Error = L1 loss / Number of Examples
Mean Absolute Error = 8/5 = 1.6

कुल गड़बड़ी के औसत के मुकाबले, वर्ग में गड़बड़ी का माध्य और रूट मीन स्क्वेयर की गड़बड़ी का पता लगाएं.

k पर औसत सटीक अनुमान (mAP@k)

#language
#generativeAI

पुष्टि करने वाले डेटासेट में, सभी k पर औसत सटीक नतीजे के स्कोर का आंकड़ों के हिसाब से औसत. k पर औसत सटीकता का एक इस्तेमाल, सुझाव देने वाले सिस्टम से जनरेट किए गए सुझावों की क्वालिटी का आकलन करना है.

"औसत" वाक्यांश का इस्तेमाल करना ज़रूरी नहीं है, लेकिन मेट्रिक का नाम सही है. आखिरकार, यह मेट्रिक कई k पर औसत सटीक वैल्यू का औसत ढूंढती है.

मीन स्क्वेयर एरर (एमएसई)

L2 लॉस का इस्तेमाल करने पर, हर उदाहरण के लिए औसत लॉस. मीन स्क्वेयर्ड एरर का हिसाब इस तरह लगाया जाता है:

  1. किसी बैच के लिए L2 लॉस का हिसाब लगाएं.
  2. L2 लॉस को बैच में मौजूद उदाहरणों की संख्या से भाग दें.

उदाहरण के लिए, पांच उदाहरणों के इस बैच पर लागू होने वाले लॉस पर विचार करें:

वास्तविक मान मॉडल का अनुमान हार मिली स्क्वेयर्ड लॉस
7 6 1 1
5 4 1 1
8 11 3 9
4 6 2 4
9 8 1 1
16 = L2 हार

इसलिए, मीन स्क्वेयर एरर यह है:

Mean Squared Error = L2 loss / Number of Examples
Mean Squared Error = 16/5 = 3.2

मीन स्क्वेयर्ड एरर, ट्रेनिंग के लिए एक लोकप्रिय ऑप्टिमाइज़र है. यह खास तौर पर लीनियर रिग्रेशन के लिए इस्तेमाल किया जाता है.

मीन स्क्वेयर एरर की तुलना, कुल गड़बड़ी का मध्यमान और रूट मीन स्क्वेयर एरर से करें.

TensorFlow Playground, लॉस वैल्यू का हिसाब लगाने के लिए, मीन स्क्वेयर्ड एरर का इस्तेमाल करता है.

मेश

#TensorFlow
#GoogleCloud

एमएल पैरलल प्रोग्रामिंग में, यह TPU चिप को डेटा और मॉडल असाइन करने से जुड़ा एक शब्द है. साथ ही, यह तय करने से जुड़ा है कि इन वैल्यू को कैसे शेयर किया जाएगा या डुप्लीकेट किया जाएगा.

मेश एक ऐसा शब्द है जिसका इस्तेमाल कई कामों के लिए किया जाता है. इसका मतलब इनमें से कोई एक हो सकता है:

  • TPU चिप का फ़िज़िकल लेआउट.
  • डेटा और मॉडल को TPU चिप पर मैप करने के लिए, एक ऐब्स्ट्रैक्ट लॉजिकल कंस्ट्रक्ट.

दोनों ही मामलों में, मेश को आकार के तौर पर दिखाया जाता है.

मेटा-लर्निंग

#language

मशीन लर्निंग का एक सबसेट, जो लर्निंग एल्गोरिदम को खोजता है या उसे बेहतर बनाता है. मेटा-लर्निंग सिस्टम का मकसद, किसी मॉडल को ट्रेनिंग देना भी हो सकता है, ताकि वह कम डेटा या पिछले टास्क से मिले अनुभव से, नया टास्क तेज़ी से सीख सके. मेटा-लर्निंग एल्गोरिदम आम तौर पर ये काम करने की कोशिश करते हैं:

  • मैन्युअल तरीके से बनाई गई सुविधाओं (जैसे, शुरू करने वाला टूल या ऑप्टिमाइज़र) को बेहतर बनाएं या उनके बारे में जानें.
  • डेटा और कंप्यूट के लिए ज़्यादा कुशल हों.
  • सामान्यीकरण को बेहतर बनाना.

मेटा-लर्निंग, फ़्यू-शॉट लर्निंग से जुड़ा है.

मीट्रिक

#TensorFlow

ऐसा आंकड़ा जिसमें आपकी दिलचस्पी है.

मकसद एक ऐसी मेट्रिक है जिसे मशीन लर्निंग सिस्टम ऑप्टिमाइज़ करने की कोशिश करता है.

Metrics API (tf.metrics)

मॉडल का आकलन करने के लिए TensorFlow API. उदाहरण के लिए, tf.metrics.accuracy से यह तय होता है कि किसी मॉडल के अनुमान, लेबल से कितनी बार मेल खाते हैं.

छोटा बैच

#fundamentals

बैच का एक छोटा, रैंडम तौर पर चुना गया सबसेट, जिसे एक इटरेशन में प्रोसेस किया जाता है. आम तौर पर, किसी मिनी-बैच का बैच साइज़ 10 से 1,000 उदाहरणों के बीच होता है.

उदाहरण के लिए, मान लें कि पूरे ट्रेनिंग सेट (पूरे बैच) में 1,000 उदाहरण हैं. मान लें कि आपने हर एक मिनी-बैच के लिए, बैच का साइज़ 20 पर सेट किया है. इसलिए, हर बार 1,000 उदाहरणों में से 20 उदाहरणों के आधार पर लॉस का पता लगाया जाता है. इसके बाद, वेट और बायस में उसी हिसाब से बदलाव किया जाता है.

पूरे बैच के सभी उदाहरणों के लॉस की तुलना में, किसी छोटे बैच के लॉस का हिसाब लगाना ज़्यादा असरदार होता है.

मिनी-बैच स्टोकेस्टिक ग्रेडिएंट डिसेंट

ग्रेडिएंट डिसेंट एल्गोरिदम, जो मिनी-बैच का इस्तेमाल करता है. दूसरे शब्दों में, मिनी-बैच स्टोकेस्टिक ग्रेडिएंट डिसेंट, ट्रेनिंग डेटा के छोटे सबसेट के आधार पर ग्रेडिएंट का अनुमान लगाता है. सामान्य स्टोकेस्टिक ग्रेडिएंट डिसेंट, साइज़ 1 के एक छोटे ग्रुप का इस्तेमाल करता है.

मिनीमैक्स लॉस

जनरेट किए गए डेटा और रीयल डेटा के डिस्ट्रिब्यूशन के बीच क्रॉस-एन्ट्रापी के आधार पर, जनरेटिव अडवर्सेरी नेटवर्क के लिए लॉस फ़ंक्शन.

जनरेटिव ऐडवर्सरी नेटवर्क के बारे में बताने के लिए, पहले पेपर में मिनिमैक्स लॉस का इस्तेमाल किया गया है.

अल्पसंख्यक वर्ग

#fundamentals

क्लास के असंतुलित डेटासेट में कम आम लेबल. उदाहरण के लिए, अगर किसी डेटासेट में 99% नेगेटिव लेबल और 1% पॉज़िटिव लेबल हैं, तो पॉज़िटिव लेबल, माइनॉरिटी क्लास के लेबल हैं.

बड़ी संख्या में मौजूद क्लास के साथ तुलना करें.

विशेषज्ञों का मिश्रण

#language
#generativeAI

न्यूरल नेटवर्क की परफ़ॉर्मेंस को बेहतर बनाने के लिए बनाई गई एक योजना. इसमें, किसी दिए गए इनपुट टोकन या उदाहरण को प्रोसेस करने के लिए, इसके पैरामीटर (जिन्हें एक्सपर्ट कहा जाता है) के सिर्फ़ सबसेट का इस्तेमाल किया जाता है. गेटिंग नेटवर्क, हर इनपुट टोकन या उदाहरण को सही विशेषज्ञों को भेजता है.

ज़्यादा जानकारी के लिए, इनमें से कोई एक पेपर देखें:

माली (ML)

मशीन लर्निंग का छोटा नाम.

MMIT

#language
#image
#generativeAI

मल्टीमोडल निर्देश-ट्यून के लिए छोटा नाम.

MNIST

#image

यह एक सार्वजनिक डोमेन डेटासेट है, जिसे LeCun, Cortes,और Burges ने इकट्ठा किया है. इसमें 60, 000 इमेज हैं. हर इमेज में यह दिखाया गया है कि किसी व्यक्ति ने 0 से 9 के बीच के किसी अंक को मैन्युअल तरीके से कैसे लिखा है. हर इमेज को 28x28 इंटिजर के ऐरे के तौर पर सेव किया जाता है. इसमें हर इंटिजर, ग्रेस्केल वैल्यू होती है, जो 0 से 255 के बीच होती है.

MNIST, मशीन लर्निंग के लिए एक कैननिकल डेटासेट है. इसका इस्तेमाल, अक्सर मशीन लर्निंग के नए तरीकों की जांच करने के लिए किया जाता है. ज़्यादा जानकारी के लिए, हाथ से लिखे गए अंकों का MNIST डेटाबेस देखें.

मोडैलिटी

#language

डेटा की हाई-लेवल कैटगरी. उदाहरण के लिए, संख्याएं, टेक्स्ट, इमेज, वीडियो, और ऑडियो, पांच अलग-अलग मोड हैं.

मॉडल

#fundamentals

आम तौर पर, कोई भी गणितीय कॉन्स्ट्रक्ट जो इनपुट डेटा को प्रोसेस करता है और आउटपुट दिखाता है. दूसरे शब्दों में, मॉडल एक सिस्टम के लिए, अनुमान लगाने के लिए ज़रूरी पैरामीटर और स्ट्रक्चर का सेट होता है. सुपरवाइज़्ड मशीन लर्निंग में, मॉडल इनपुट के तौर पर उदाहरण लेता है और आउटपुट के तौर पर अनुमान का अनुमान लगाता है. सुपरवाइज़्ड मशीन लर्निंग में, मॉडल कुछ अलग होते हैं. उदाहरण के लिए:

  • लीनियर रिग्रेशन मॉडल में वेट और बायस का एक सेट होता है.
  • न्यूरल नेटवर्क मॉडल में ये चीज़ें शामिल होती हैं:
    • हाइडन लेयर का एक सेट, जिसमें हर लेयर में एक या उससे ज़्यादा न्यूरॉन होते हैं.
    • हर न्यूरॉन से जुड़े वेट और बायस.
  • डिसीज़न ट्री मॉडल में ये शामिल होते हैं:
    • ट्री का आकार; यानी, वह पैटर्न जिसमें शर्तें और पत्तियां जुड़ी होती हैं.
    • शर्तें और छुट्टियां.

मॉडल को सेव किया जा सकता है, वापस लाया जा सकता है या उसकी कॉपी बनाई जा सकती है.

बिना निगरानी वाली मशीन लर्निंग भी मॉडल जनरेट करती है. आम तौर पर, यह एक ऐसा फ़ंक्शन होता है जो किसी इनपुट उदाहरण को सबसे सही क्लस्टर से मैप कर सकता है.

मॉडल की क्षमता

मॉडल, ऐसी समस्याओं को कितनी आसानी से हल कर सकता है. मॉडल जितनी ज़्यादा मुश्किल समस्याओं को हल कर सकता है उसकी क्षमता उतनी ही ज़्यादा होती है. आम तौर पर, मॉडल के पैरामीटर की संख्या बढ़ने पर, मॉडल की क्षमता भी बढ़ती है. क्लासिफ़ायर की क्षमता की आधिकारिक परिभाषा के लिए, वीसी डाइमेंशन देखें.

कैस्केडिंग मॉडल

#generativeAI

यह एक ऐसा सिस्टम है जो किसी खास अनुमान से जुड़ी क्वेरी के लिए, सबसे सही मॉडल चुनता है.

मॉडल के एक ग्रुप की कल्पना करें, जिसमें बहुत बड़े (काफ़ी पैरामीटर) से लेकर बहुत छोटे (काफ़ी कम पैरामीटर) मॉडल शामिल हों. छोटे मॉडल की तुलना में, बहुत बड़े मॉडल अनुमान लगाने के समय, कंप्यूटिंग संसाधनों का ज़्यादा इस्तेमाल करते हैं. हालांकि, आम तौर पर बहुत बड़े मॉडल, छोटे मॉडल की तुलना में ज़्यादा जटिल अनुरोधों का अनुमान लगा सकते हैं. मॉडल कैस्केडिंग से, अनुमान लगाने वाली क्वेरी की जटिलता का पता चलता है. इसके बाद, अनुमान लगाने के लिए सही मॉडल चुना जाता है. मॉडल कैस्केडिंग का मुख्य मकसद, आम तौर पर छोटे मॉडल चुनकर, अनुमान लगाने में लगने वाले समय को कम करना है. साथ ही, ज़्यादा जटिल क्वेरी के लिए ही बड़ा मॉडल चुनना है.

मान लें कि एक छोटा मॉडल फ़ोन पर चलता है और उस मॉडल का बड़ा वर्शन, रिमोट सर्वर पर चलता है. मॉडल को सही तरीके से कैस्केड करने से, लागत और इंतज़ार का समय कम हो जाता है. ऐसा इसलिए होता है, क्योंकि छोटे मॉडल को आसान अनुरोधों को मैनेज करने की सुविधा मिलती है. साथ ही, मुश्किल अनुरोधों को मैनेज करने के लिए, सिर्फ़ रिमोट मॉडल को कॉल किया जाता है.

राउटर का मॉडल भी देखें.

मॉडल पैरलललिज़्म

#language

ट्रेनिंग या अनुमान लगाने की प्रोसेस को स्केल करने का एक तरीका, जिसमें एक मॉडल के अलग-अलग हिस्सों को अलग-अलग डिवाइसों पर डाला जाता है. मॉडल के पैरलल प्रोसेस की सुविधा, ऐसे मॉडल को इस्तेमाल करने की अनुमति देती है जो एक ही डिवाइस में फ़िट नहीं होते.

मॉडल पैरलललिज़्म लागू करने के लिए, सिस्टम आम तौर पर ये काम करता है:

  1. मॉडल को छोटे-छोटे हिस्सों में बांटता है.
  2. इन छोटे हिस्सों की ट्रेनिंग को कई प्रोसेसर पर बांटता है. हर प्रोसेसर, मॉडल के अपने हिस्से को ट्रेन करता है.
  3. एक मॉडल बनाने के लिए, नतीजों को जोड़ता है.

मॉडल के पैरलल प्रोसेस होने की वजह से, ट्रेनिंग धीमी हो जाती है.

डेटा पैरलेलिज्म भी देखें.

मॉडल राऊटर

#generativeAI

यह एल्गोरिदम, मॉडल कैस्केडिंग में अनुमान के लिए, सबसे सही मॉडल तय करता है. मॉडल राउटर, आम तौर पर एक मशीन लर्निंग मॉडल होता है. यह किसी दिए गए इनपुट के लिए, सबसे अच्छा मॉडल चुनने का तरीका धीरे-धीरे सीखता है. हालांकि, मॉडल राउटर कभी-कभी मशीन लर्निंग एल्गोरिदम के बजाय, आसान हो सकता है.

मॉडल की ट्रेनिंग

सबसे अच्छा मॉडल तय करने की प्रोसेस.

MOE

#language
#image
#generativeAI

विशेषज्ञों के मिश्रण का छोटा नाम.

दिलचस्पी बढ़ाना

यह एक बेहतरीन ग्रेडिएंट डिसेंट एल्गोरिदम है. इसमें लर्निंग चरण, न सिर्फ़ मौजूदा चरण के डेरिवेटिव पर निर्भर करता है, बल्कि उससे पहले के चरण के डेरिवेटिव पर भी निर्भर करता है. मोमेंटम में, समय के साथ ग्रेडिएंट के एक्सपोनेंशियल वेटेड मूविंग ऐवरेज का हिसाब लगाना शामिल है. यह भौतिक विज्ञान में मोमेंटम के जैसा ही है. मोमेंटम की वजह से, कभी-कभी लर्निंग प्रोसेस, लोकल माइनिमा में फंसने से बच जाती है.

MT

#generativeAI

मशीन से अनुवाद का संक्षिप्त नाम.

मल्टी-क्लास क्लासिफ़िकेशन

#fundamentals

सुपरवाइज़्ड लर्निंग में, क्लासिफ़िकेशन से जुड़ी समस्या, जिसमें डेटासेट में लेबल की क्लास दो से ज़्यादा होती हैं. उदाहरण के लिए, Iris डेटासेट में मौजूद लेबल, इन तीन में से किसी एक क्लास में होने चाहिए:

  • आइरिस सेटोसा
  • आइरिस वर्जिनिका
  • आइरिस वर्सिकलर

आइरिस डेटासेट पर ट्रेन किया गया मॉडल, नए उदाहरणों के आधार पर आइरिस टाइप का अनुमान लगाता है. यह मॉडल, कई क्लास का क्लासिफ़िकेशन करता है.

इसके उलट, क्लासिफ़िकेशन की ऐसी समस्याएं जिनमें सिर्फ़ दो क्लास के बीच अंतर किया जाता है उन्हें बाइनरी क्लासिफ़िकेशन मॉडल कहा जाता है. उदाहरण के लिए, ईमेल का ऐसा मॉडल जो स्पैम या स्पैम नहीं का अनुमान लगाता है, वह बाइनरी क्लासिफ़िकेशन मॉडल होता है.

क्लस्टर करने से जुड़ी समस्याओं में, मल्टी-क्लास क्लासिफ़िकेशन का मतलब दो से ज़्यादा क्लस्टर से है.

मल्टी-क्लास लॉजिस्टिक रिग्रेशन

मल्टी-क्लास क्लासिफ़िकेशन से जुड़ी समस्याओं में, लॉजिस्टिक रिग्रेशन का इस्तेमाल करना.

मल्टी-हेड सेल्फ़-अटेंशन

#language

सेल्फ़-अटेंशन का एक एक्सटेंशन, जो इनपुट क्रम में हर पोज़िशन के लिए, सेल्फ़-अटेंशन मैकेनिज्म को कई बार लागू करता है.

Transformers ने मल्टी-हेड सेल्फ़-अटेंशन की सुविधा शुरू की.

मल्टीमोडल निर्देशों के हिसाब से ट्यून किया गया

#language

निर्देश के हिसाब से बनाया गया मॉडल, जो टेक्स्ट के अलावा इमेज, वीडियो, और ऑडियो जैसे इनपुट को भी प्रोसेस कर सकता है.

मल्टीमोडल मॉडल

#language

ऐसा मॉडल जिसके इनपुट और/या आउटपुट में एक से ज़्यादा मोड शामिल होते हैं. उदाहरण के लिए, एक ऐसे मॉडल पर विचार करें जो इमेज और टेक्स्ट कैप्शन, दोनों को सुविधाओं के तौर पर लेता है. साथ ही, यह एक स्कोर दिखाता है, जिससे पता चलता है कि टेक्स्ट कैप्शन, इमेज के लिए कितना सही है. इसलिए, इस मॉडल के इनपुट मल्टीमोडल होते हैं और आउटपुट यूनिमोडल होता है.

मल्टीनोमिअल क्लासिफ़िकेशन

मल्टी-क्लास क्लासिफ़िकेशन का दूसरा नाम.

मल्टीनोमियल रिग्रेशन

मल्टी-क्लास लॉजिस्टिक रिग्रेशन के लिए, समानार्थी शब्द.

मल्टीटास्क

मशीन लर्निंग की एक तकनीक, जिसमें एक मॉडल को कई टास्क करने के लिए ट्रेन किया जाता है.

मल्टीटास्क मॉडल बनाने के लिए, अलग-अलग टास्क के लिए सही डेटा का इस्तेमाल करके ट्रेनिंग दी जाती है. इससे मॉडल को सभी टास्क के बीच जानकारी शेयर करने का तरीका सीखने में मदद मिलती है. इससे मॉडल को ज़्यादा असरदार तरीके से सीखने में मदद मिलती है.

कई टास्क के लिए ट्रेन किए गए मॉडल में, आम तौर पर बेहतर जनरलाइज़ेशन की क्षमताएं होती हैं और यह अलग-अलग तरह के डेटा को हैंडल करने में ज़्यादा बेहतर हो सकता है.

नहीं

NaN ट्रैप

जब ट्रेनिंग के दौरान आपके मॉडल में मौजूद कोई संख्या NaN हो जाती है, तो आपके मॉडल में मौजूद कई या सभी संख्याएं आखिर में NaN हो जाती हैं.

NaN, हीं कोई संख्या है.

नैचुरल लैंग्वेज प्रोसेसिंग

#language
कंप्यूटर को यह सिखाने का तरीका कि वह भाषा के नियमों का इस्तेमाल करके, उपयोगकर्ता के बोले या टाइप किए गए शब्दों को प्रोसेस करे. नैचुरल लैंग्वेज प्रोसेसिंग की तकरीबन सभी आधुनिक सुविधाएं, मशीन लर्निंग पर निर्भर करती हैं.

नैचुरल लैंग्वेज अंडरस्टैंडिंग

#language

नैचुरल लैंग्वेज प्रोसेसिंग का सबसेट, जो बोले गए या टाइप किए गए किसी वाक्य के इरादे का पता लगाता है. नैचुरल लैंग्वेज प्रोसेसिंग के अलावा, नैचुरल लैंग्वेज अंडरस्टैंडिंग की मदद से, भाषा के जटिल पहलुओं को समझा जा सकता है. जैसे, संदर्भ, व्यंग्य, और भावना.

नेगेटिव क्लास

#fundamentals

बाइनरी क्लासिफ़िकेशन में, एक क्लास को पॉज़िटिव और दूसरी क्लास को नेगेटिव कहा जाता है. पॉज़िटिव क्लास वह चीज़ या इवेंट है जिसकी जांच मॉडल कर रहा है और नेगेटिव क्लास दूसरी संभावना है. उदाहरण के लिए:

  • किसी मेडिकल टेस्ट में नेगेटिव क्लास, "ट्यूमर नहीं" हो सकती है.
  • ईमेल क्लासिफ़ायर में नेगेटिव क्लास, "स्पैम नहीं है" हो सकती है.

पॉज़िटिव क्लास के साथ तुलना करें.

नेगेटिव सैंपलिंग

उम्मीदवारों की सैंपलिंग का दूसरा नाम.

न्यूरल आर्किटेक्चर सर्च (एनएएस)

न्यूरल नेटवर्क के आर्किटेक्चर को अपने-आप डिज़ाइन करने की तकनीक. एनएएस एल्गोरिदम, किसी न्यूरल नेटवर्क को ट्रेन करने के लिए ज़रूरी समय और संसाधनों को कम कर सकते हैं.

आम तौर पर, NAS में इनका इस्तेमाल किया जाता है:

  • सर्च स्पेस, जो संभावित आर्किटेक्चर का एक सेट होता है.
  • फ़िटनेस फ़ंक्शन, जो यह मेज़र करता है कि किसी खास टास्क पर कोई खास आर्किटेक्चर कितनी अच्छी तरह परफ़ॉर्म करता है.

एनएएस एल्गोरिदम, आम तौर पर संभावित आर्किटेक्चर के छोटे सेट से शुरू होते हैं. साथ ही, एल्गोरिदम के बेहतर आर्किटेक्चर के बारे में ज़्यादा जानने के साथ-साथ, खोज स्पेस को धीरे-धीरे बड़ा किया जाता है. फ़िटनेस फ़ंक्शन आम तौर पर, किसी ट्रेनिंग सेट पर आर्किटेक्चर की परफ़ॉर्मेंस पर आधारित होता है. साथ ही, एल्गोरिदम को आम तौर पर रीइंफ़ोर्समेंट लर्निंग तकनीक का इस्तेमाल करके ट्रेन किया जाता है.

एनएएस एल्गोरिदम, कई तरह के टास्क के लिए बेहतर परफ़ॉर्म करने वाले आर्किटेक्चर ढूंढने में असरदार साबित हुए हैं. इनमें इमेज क्लासिफ़िकेशन, टेक्स्ट क्लासिफ़िकेशन, और मशीन ट्रांसलेशन शामिल हैं.

न्यूरल नेटवर्क

#fundamentals

ऐसा मॉडल जिसमें कम से कम एक छिपी हुई लेयर हो. डीप न्यूरल नेटवर्क, एक तरह का न्यूरल नेटवर्क है. इसमें एक से ज़्यादा हिडन लेयर होती हैं. उदाहरण के लिए, नीचे दिए गए डायग्राम में एक डीप न्यूरल नेटवर्क दिखाया गया है, जिसमें दो छिपी हुई लेयर हैं.

एक इनपुट लेयर, दो हिडन लेयर, और एक आउटपुट लेयर वाला न्यूरल नेटवर्क.

किसी न्यूरल नेटवर्क में मौजूद हर न्यूरॉन, अगली लेयर के सभी नोड से कनेक्ट होता है. उदाहरण के लिए, पिछले डायग्राम में देखें कि पहली छिपी हुई लेयर में मौजूद तीनों न्यूरॉन, दूसरी छिपी हुई लेयर में मौजूद दोनों न्यूरॉन से अलग-अलग कनेक्ट होते हैं.

कंप्यूटर पर लागू किए गए न्यूरल नेटवर्क को कभी-कभी ऐrtificial neural networks कहा जाता है. ऐसा इसलिए किया जाता है, ताकि इन्हें मस्तिष्क और अन्य तंत्रिका सिस्टम में मौजूद न्यूरल नेटवर्क से अलग किया जा सके.

कुछ न्यूरल नेटवर्क, अलग-अलग सुविधाओं और लेबल के बीच का बेहद जटिल नॉनलाइनियर संबंध समझ सकते हैं.

कन्वोल्यूशनल न्यूरल नेटवर्क और रीकुरेंट न्यूरल नेटवर्क भी देखें.

न्यूरॉन

#fundamentals

मशीन लर्निंग में, न्यूरल नेटवर्क की छिपी हुई लेयर में मौजूद एक अलग यूनिट. हर न्यूरॉन, नीचे दी गई दो चरणों वाली कार्रवाई करता है:

  1. इनपुट वैल्यू के वेटेड योग का हिसाब लगाता है. इसके लिए, वैल्यू को उनके वेट से गुणा किया जाता है.
  2. ऐक्टिवेशन फ़ंक्शन को इनपुट के तौर पर, वेटेड योग पास करता है.

पहली हिडन लेयर में मौजूद न्यूरॉन, इनपुट लेयर में मौजूद फ़ीचर वैल्यू से इनपुट स्वीकार करता है. पहली से परे किसी भी छिपी हुई लेयर में मौजूद न्यूरॉन, पिछली छिपी हुई लेयर में मौजूद न्यूरॉन से इनपुट स्वीकार करता है. उदाहरण के लिए, दूसरी हिडन लेयर में मौजूद न्यूरॉन, पहली हिडन लेयर में मौजूद न्यूरॉन से इनपुट स्वीकार करता है.

इस इलस्ट्रेशन में दो न्यूरॉन और उनके इनपुट को हाइलाइट किया गया है.

एक इनपुट लेयर, दो हिडन लेयर, और एक आउटपुट लेयर वाला न्यूरल नेटवर्क. दो न्यूरॉन हाइलाइट किए गए हैं: पहला पहली
          हिडन लेयर में और दूसरा दूसरी हिडन लेयर में. पहली छिपी हुई लेयर में हाइलाइट किए गए न्यूरॉन को इनपुट लेयर में मौजूद दोनों सुविधाओं से इनपुट मिलते हैं. दूसरी हिडन लेयर में हाइलाइट किए गए न्यूरॉन को, पहली हिडन लेयर के तीनों न्यूरॉन से इनपुट मिलते हैं.

न्यूरल नेटवर्क में मौजूद न्यूरॉन, दिमाग और नर्वस सिस्टम के अन्य हिस्सों में मौजूद न्यूरॉन के व्यवहार की नकल करता है.

एन-ग्राम

#seq
#language

N शब्दों का क्रम. उदाहरण के लिए, truly madly एक दो-ग्राम है. क्रम का ज़रूरी होना, madly truly को truly madly से अलग बनाता है.

नहीं इस तरह के एन-ग्राम का नाम उदाहरण
2 बिग्राम या दो वर्णों वाला ग्रुप जाना, जाना, लंच करना, डिनर करना
3 ट्रिग्रम या तीन वर्णों का ग्रुप ate too much, three blind mice, the bell tolls
4 4-gram पार्क में टहलना, हवा में धूल उड़ना, लड़के ने दाल खाना

सामान्य भाषा को समझने वाले कई मॉडल, उपयोगकर्ता के टाइप किए गए या बोले गए अगले शब्द का अनुमान लगाने के लिए, एन-ग्राम पर भरोसा करते हैं. उदाहरण के लिए, मान लें कि किसी उपयोगकर्ता ने three blind टाइप किया. ट्राइग्राम पर आधारित एनएलयू मॉडल, इस बात का अनुमान लगा सकता है कि उपयोगकर्ता अगले शब्द के तौर पर चूहे टाइप करेगा.

एन-ग्राम की तुलना बैग ऑफ़ वर्ड से करें. ये शब्दों के क्रम से लगाए गए सेट होते हैं.

एनएलपी

#language

नैचुरल लैंग्वेज प्रोसेसिंग का छोटा नाम.

एनएलयू

#language

नैचुरल लैंग्वेज अंडरस्टैंडिंग का छोटा नाम.

नोड (डिसीज़न ट्री)

#df

फ़ैसला लेने के लिए बने ट्री में, कोई भी शर्त या लीफ़.

दो शर्तों और तीन लीफ़ वाला डिसीज़न ट्री.

नोड (न्यूरल नेटवर्क)

#fundamentals

छिपी हुई लेयर में मौजूद न्यूरॉन.

नोड (TensorFlow ग्राफ़)

#TensorFlow

TensorFlow ग्राफ़ में कोई ऑपरेशन.

शोर

आम तौर पर, ऐसा कोई भी एलिमेंट जो डेटासेट में सिग्नल को धुंधला करता है. डेटा में ग़ैर-ज़रूरी जानकारी कई तरीकों से शामिल हो सकती है. उदाहरण के लिए:

  • रेटिंग देने वाले लोग, लेबल करने में गलतियां करते हैं.
  • लोग और इंस्ट्रूमेंट, सुविधा की वैल्यू को गलत तरीके से रिकॉर्ड करते हैं या उन्हें शामिल नहीं करते.

अन्य स्थिति

#df

ऐसी शर्त जिसमें दो से ज़्यादा संभावित नतीजे हों. उदाहरण के लिए, नॉन-बाइनरी शर्त में तीन संभावित नतीजे हो सकते हैं:

एक शर्त (number_of_legs = ?) जिससे तीन संभावित नतीजे मिलते हैं. एक नतीजे (number_of_legs = 8) से, पत्तियां
          नाम का स्पाइडर मिलता है. दूसरे नतीजे (number_of_legs = 4) से,
          कुत्ते के नाम वाला एक लीफ़ मिलता है. तीसरे नतीजे (number_of_legs = 2) से,
          पेंग्विन नाम का एक पत्ती मिलता है.

नॉन-लीनियर

#fundamentals

दो या उससे ज़्यादा वैरिएबल के बीच का ऐसा संबंध जिसे सिर्फ़ जोड़ और गुणा के ज़रिए नहीं दिखाया जा सकता. लीनियर संबंध को लाइन के तौर पर दिखाया जा सकता है. हालांकि, नॉन-लीनियर संबंध को लाइन के तौर पर नहीं दिखाया जा सकता. उदाहरण के लिए, दो मॉडल लें, जिनमें से हर मॉडल में एक सुविधा को एक लेबल से जोड़ा गया हो. बाईं ओर मौजूद मॉडल लीनियर है और दाईं ओर मौजूद मॉडल नॉन-लीनियर है:

दो प्लॉट. एक प्लॉट एक लाइन है, इसलिए यह एक लीनियर रिलेशनशिप है.
          दूसरा प्लॉट एक कर्व है, इसलिए यह एक नॉनलाइनर रिलेशनशिप है.

नॉन-रिस्पॉन्स बायस

#fairness

चुनी गई वैल्यू में बायस देखें.

नॉन-स्टेशनरी

#fundamentals

ऐसी सुविधा जिसकी वैल्यू एक या उससे ज़्यादा डाइमेंशन में बदलती है. आम तौर पर, समय में बदलाव होता है. उदाहरण के लिए, नॉन-स्टेशनरी डेटा के ये उदाहरण देखें:

  • किसी खास स्टोर में बेचे जाने वाले स्विमसूट की संख्या, सीज़न के हिसाब से अलग-अलग होती है.
  • किसी खास इलाके में किसी खास फ़ल की पैदावार, साल के ज़्यादातर समय के लिए शून्य होती है. हालांकि, कुछ समय के लिए यह ज़्यादा होती है.
  • जलवायु परिवर्तन की वजह से, साल के औसत तापमान में बदलाव हो रहा है.

स्टेशनरिटी के साथ कंट्रास्ट करें.

कोई एक सही जवाब नहीं है (NORA)

#language
#generativeAI

ऐसा प्रॉम्प्ट जिसमें एक से ज़्यादा सही जवाब हों. उदाहरण के लिए, इस प्रॉम्प्ट का कोई एक सही जवाब नहीं है:

मुझे हाथियों के बारे में कोई चुटकुला सुनाओ.

जिन सवालों का कोई सही जवाब नहीं होता उनके लिए, एलिमेंट का आकलन करना मुश्किल हो सकता है.

NORA

#language
#generativeAI

कोई सही जवाब नहीं है का छोटा रूप.

नॉर्मलाइज़ेशन

#fundamentals

आम तौर पर, किसी वैरिएबल की वैल्यू की असल रेंज को वैल्यू की स्टैंडर्ड रेंज में बदलने की प्रोसेस. जैसे:

  • -1 से +1
  • 0 से 1
  • Z-स्कोर (लगभग -3 से +3)

उदाहरण के लिए, मान लें कि किसी खास सुविधा की वैल्यू की असल रेंज 800 से 2,400 है. फ़ीचर इंजीनियरिंग के हिस्से के तौर पर, असल वैल्यू को स्टैंडर्ड रेंज में नॉर्मलाइज़ किया जा सकता है. जैसे, -1 से +1.

फ़ीचर इंजीनियरिंग में सामान्य तौर पर, डेटा को सामान्य रूप में बदला जाता है. आम तौर पर, मॉडल तेज़ी से ट्रेन होते हैं और बेहतर अनुमान देते हैं. ऐसा तब होता है, जब फ़ीचर वेक्टर में मौजूद हर संख्या वाली फ़ीचर की रेंज एक जैसी हो.

ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स का न्यूमेरिकल डेटा के साथ काम करने वाला मॉड्यूल देखें. ज़ेड-स्कोर को सामान्य बनाने के बारे में भी जानें.

नई चीज़ों का पता लगाने की सुविधा

यह तय करने की प्रोसेस कि कोई नया (नया) उदाहरण, ट्रेनिंग सेट के उसी डिस्ट्रिब्यूशन से आता है या नहीं. दूसरे शब्दों में, ट्रेनिंग सेट पर ट्रेनिंग के बाद, नई चीज़ों का पता लगाने की सुविधा यह तय करती है कि कोई नया उदाहरण (अनुमान लगाने या अतिरिक्त ट्रेनिंग के दौरान) आउटलायर है या नहीं.

आउटलायर की पहचान के साथ तुलना करें.

संख्याओं वाला डेटा

#fundamentals

विशेषताएं, जो पूर्णांक या रीयल वैल्यू वाली संख्याओं के तौर पर दिखाई जाती हैं. उदाहरण के लिए, घर की कीमत का आकलन करने वाला मॉडल, घर के साइज़ (वर्ग फ़ीट या वर्ग मीटर में) को संख्या के तौर पर दिखाएगा. किसी फ़ीचर को संख्या वाले डेटा के तौर पर दिखाने से पता चलता है कि फ़ीचर की वैल्यू, लेबल से गणितीय तौर पर जुड़ी हैं. इसका मतलब है कि किसी घर के वर्ग मीटर की संख्या का, घर की कीमत से कोई गणितीय संबंध हो सकता है.

सभी इंटीजर डेटा को अंकों वाले डेटा के तौर पर नहीं दिखाया जाना चाहिए. उदाहरण के लिए, दुनिया के कुछ हिस्सों में पिन कोड पूर्णांक होते हैं. हालांकि, पूर्णांक वाले पिन कोड को मॉडल में संख्या के तौर पर नहीं दिखाया जाना चाहिए. ऐसा इसलिए है, क्योंकि 20000 का पिन कोड, 10,000 के पिन कोड के मुकाबले दोगुना (या आधा) असरदार नहीं होता. इसके अलावा, अलग-अलग पिन कोड, रीयल एस्टेट की अलग-अलग वैल्यू से जुड़े होते हैं. हालांकि, हम यह नहीं मान सकते कि पिन कोड 20000 की रीयल एस्टेट वैल्यू, पिन कोड 10000 की रीयल एस्टेट वैल्यू से दोगुनी है. पिन कोड को कैटगरी वाले डेटा के तौर पर दिखाया जाना चाहिए.

संख्या वाली सुविधाओं को कभी-कभी कंटिन्यूअस फ़ीचर कहा जाता है.

NumPy

ओपन सोर्स मैथ लाइब्रेरी, जो Python में ऐरे के बेहतर तरीके से इस्तेमाल करने की सुविधा देती है. pandas, NumPy पर आधारित है.

O

कैंपेन का मकसद

वह मेट्रिक जिसे आपका एल्गोरिदम ऑप्टिमाइज़ करने की कोशिश कर रहा है.

मकसद फ़ंक्शन

गणित का वह फ़ॉर्मूला या मेट्रिक जिसे मॉडल ऑप्टिमाइज़ करना चाहता है. उदाहरण के लिए, लीनियर रिग्रेशन के लिए मकसद फ़ंक्शन आम तौर पर मायन स्क्वेयर लॉस होता है. इसलिए, किसी रेखीय रिग्रेशन मॉडल को ट्रेनिंग देते समय, ट्रेनिंग का मकसद मीन स्क्वेयर लॉस को कम करना होता है.

कुछ मामलों में, मकसद फ़ंक्शन को ज़्यादा से ज़्यादा बढ़ाना होता है. उदाहरण के लिए, अगर मकसद का फ़ंक्शन सटीक होना है, तो लक्ष्य सटीक जानकारी को बढ़ाना है.

नुकसान भी देखें.

ऑब्लिक कंडीशन

#df

फ़ैसला लेने वाले ट्री में, एक ऐसी शर्त जिसमें एक से ज़्यादा सुविधाएं शामिल हों. उदाहरण के लिए, अगर ऊंचाई और चौड़ाई, दोनों एट्रिब्यूट हैं, तो यहां दी गई शर्त अस्पष्ट है:

  height > width

ऐक्सिस के साथ अलाइन की गई शर्त के साथ तुलना करें.

अॉफ़लाइन

#fundamentals

स्टैटिक का समानार्थी शब्द.

ऑफ़लाइन अनुमान

#fundamentals

मॉडल की वह प्रोसेस जिसमें अनुमान का एक बैच जनरेट किया जाता है और फिर उन अनुमानों को कैश मेमोरी में सेव (सेव) किया जाता है. इसके बाद, ऐप्लिकेशन मॉडल को फिर से चलाने के बजाय, कैश मेमोरी से अनुमानित अनुमान ऐक्सेस कर सकते हैं.

उदाहरण के लिए, एक ऐसा मॉडल जो हर चार घंटे में स्थानीय मौसम के पूर्वानुमान (अनुमान) जनरेट करता है. हर मॉडल के चलने के बाद, सिस्टम, मौसम के सभी स्थानीय पूर्वानुमान को कैश मेमोरी में सेव कर लेता है. मौसम के पूर्वानुमान बताने वाले ऐप्लिकेशन, कैश मेमोरी से पूर्वानुमान हासिल करते हैं.

ऑफ़लाइन अनुमान लगाने की प्रोसेस को स्टैटिक अनुमान भी कहा जाता है.

ऑनलाइन अनुमान के साथ तुलना करें.

वन-हॉट एन्कोडिंग

#fundamentals

कैटगरी वाले डेटा को वेक्टर के तौर पर दिखाना, जिसमें:

  • एक एलिमेंट को 1 पर सेट किया गया है.
  • बाकी सभी एलिमेंट 0 पर सेट होते हैं.

आम तौर पर, वन-हॉट कोडिंग का इस्तेमाल उन स्ट्रिंग या आइडेंटिफ़ायर को दिखाने के लिए किया जाता है जिनमें संभावित वैल्यू का सीमित सेट होता है. उदाहरण के लिए, मान लें कि Scandinavia नाम की किसी कैटगरी वाली सुविधा की पांच संभावित वैल्यू हैं:

  • "डेनमार्क"
  • "स्वीडन"
  • "नॉर्वे"
  • "फ़िनलैंड"
  • "आइसलैंड"

वन-हॉट कोडिंग, इन पांच वैल्यू को इस तरह दिखा सकती है:

country वेक्टर
"डेनमार्क" 1 0 0 0 0
"स्वीडन" 0 1 0 0 0
"नॉर्वे" 0 0 1 0 0
"फ़िनलैंड" 0 0 0 1 0
"आइसलैंड" 0 0 0 0 1

वन-हॉट कोडिंग की मदद से, मॉडल पांचों देशों के आधार पर अलग-अलग कनेक्शन सीख सकता है.

किसी सुविधा को न्यूमेरिक डेटा के तौर पर दिखाना, वन-हॉट एन्कोडिंग का एक विकल्प है. माफ़ करें, स्कैंडिनेवियन देशों को संख्या के हिसाब से दिखाना एक अच्छा विकल्प नहीं है. उदाहरण के लिए, संख्याओं को इस तरह दिखाया जा सकता है:

  • "Denmark" is 0
  • "स्वीडन" 1 है
  • "Norway" is 2
  • "फ़िनलैंड" 3 है
  • "Iceland" 4 है

अंकों को कोड में बदलने की सुविधा की मदद से, मॉडल रॉ संख्याओं को गणित के हिसाब से समझता है और उन संख्याओं पर ट्रेनिंग की कोशिश करता है. हालांकि, आइसलैंड में नॉर्वे के मुकाबले दोगुना (या आधा) कुछ भी नहीं है. इसलिए, मॉडल कुछ अजीब नतीजे देगा.

वन-शॉट लर्निंग

मशीन लर्निंग का एक तरीका, जिसका इस्तेमाल अक्सर ऑब्जेक्ट की कैटगरी तय करने के लिए किया जाता है. इसे एक ट्रेनिंग उदाहरण से, कैटगरी तय करने वाले असरदार एल्गोरिदम को सीखने के लिए डिज़ाइन किया गया है.

फ़्यू-शॉट लर्निंग और ज़ीरो-शॉट लर्निंग के बारे में भी जानें.

वन-शॉट प्रॉम्प्ट

#language
#generativeAI

प्रॉम्प्ट, जिसमें एक उदाहरण शामिल है. इससे पता चलता है कि लार्ज लैंग्वेज मॉडल को किस तरह जवाब देना चाहिए. उदाहरण के लिए, यहां दिए गए प्रॉम्प्ट में एक उदाहरण दिया गया है. इसमें लार्ज लैंग्वेज मॉडल को यह दिखाया गया है कि उसे किसी क्वेरी का जवाब कैसे देना चाहिए.

एक प्रॉम्प्ट के हिस्से नोट
चुने गए देश की आधिकारिक मुद्रा क्या है? वह सवाल जिसका जवाब आपको एलएलएम से चाहिए.
फ़्रांस: यूरो एक उदाहरण.
भारत: असल क्वेरी.

एक बार में प्रॉम्प्ट करने की सुविधा की तुलना इन शब्दों से करें:

एक-बनाम-सभी

#fundamentals

N क्लास वाली कैटगरी तय करने की समस्या के लिए, N अलग-अलग बाइनरी क्लासिफ़ायर वाला समाधान. हर संभावित नतीजे के लिए एक बाइनरी क्लासिफ़ायर. उदाहरण के लिए, किसी ऐसे मॉडल के लिए जो उदाहरणों को जानवर, सब्जी या खनिज के तौर पर बांटता है, एक-बनाम-सभी वाला समाधान, नीचे दिए गए तीन अलग-अलग बाइनरी क्लासिफ़ायर उपलब्ध कराएगा:

  • जानवर है या नहीं
  • सब्ज़ी बनाम नॉन-वेजिटेबल
  • मिनरल बनाम नॉन-मिनरल

online

#fundamentals

डाइनैमिक का समानार्थी शब्द.

ऑनलाइन अनुमान

#fundamentals

मांग पर अनुमान जनरेट करना. उदाहरण के लिए, मान लें कि कोई ऐप्लिकेशन किसी मॉडल को इनपुट भेजता है और अनुमान का अनुरोध करता है. ऑनलाइन अनुमान लगाने वाला सिस्टम, मॉडल को चलाकर अनुरोध का जवाब देता है. साथ ही, ऐप्लिकेशन को अनुमान दिखाता है.

ऑफ़लाइन अनुमान के साथ तुलना करें.

ऑपरेशन (op)

#TensorFlow

TensorFlow में, Tensor बनाने, उसमें बदलाव करने या उसे मिटाने वाली कोई भी प्रोसेस. उदाहरण के लिए, मैट्रिक्स का गुणा करने की कार्रवाई में दो टेंसर इनपुट के तौर पर इस्तेमाल किए जाते हैं और एक टेंसर आउटपुट के तौर पर जनरेट होता है.

Optax

JAX के लिए ग्रेडिएंट प्रोसेसिंग और ऑप्टिमाइज़ेशन लाइब्रेरी. Optax, ऐसे बिल्डिंग ब्लॉक उपलब्ध कराता है जिन्हें पसंद के मुताबिक तरीके से फिर से जोड़ा जा सकता है. इससे डीप न्यूरल नेटवर्क जैसे पैरामीटरिक मॉडल को ऑप्टिमाइज़ किया जा सकता है. अन्य लक्ष्यों में ये शामिल हैं:

  • मुख्य कॉम्पोनेंट को पढ़ने में आसान, अच्छी तरह से जांचा गया, और बेहतर तरीके से लागू किया गया हो.
  • कम लेवल के कॉम्पोनेंट को कस्टम ऑप्टिमाइज़र (या ग्रेडिएंट प्रोसेसिंग के अन्य कॉम्पोनेंट) में जोड़कर, प्रोडक्टिविटी को बेहतर बनाना.
  • नए आइडिया को आसानी से अपनाने में मदद करना, ताकि कोई भी व्यक्ति इसमें योगदान दे सके.

ऑप्टिमाइज़र

ग्रेडिएंट डिसेंट एल्गोरिदम को लागू करने का एक खास तरीका. लोकप्रिय ऑप्टिमाइज़र में ये शामिल हैं:

  • AdaGrad, जिसका मतलब है ADAptive GRADient descent.
  • एडम, जिसका मतलब है मोमेंटम के साथ अडैप्टिव.

आउट-ग्रुप होमोजेनिटी बायस

#fairness

इस थ्योरी के मुताबिक, किसी ग्रुप के सदस्यों के व्यवहार, मूल्यों, व्यक्तित्व के लक्षणों, और अन्य विशेषताओं की तुलना करते समय, ग्रुप के बाहर के सदस्यों को ग्रुप के सदस्यों से ज़्यादा मिलता-जुलता माना जाता है. इन-ग्रुप से उन लोगों का मतलब है जिनसे आपका नियमित तौर पर इंटरैक्शन होता है; आउट-ग्रुप से उन लोगों का मतलब है जिनसे आपका नियमित तौर पर इंटरैक्शन नहीं होता. अगर लोगों से बाहरी ग्रुप के बारे में एट्रिब्यूट देने के लिए कहा जाता है, तो हो सकता है कि वे एट्रिब्यूट, उन एट्रिब्यूट के मुकाबले कम बारीक और ज़्यादा स्टीरियोटाइप वाले हों जो लोग अपने ग्रुप के लोगों के लिए बताते हैं.

उदाहरण के लिए, लिलिपुटियन, लिलिपुटियन के अन्य लोगों के घरों के बारे में ज़्यादा जानकारी दे सकते हैं. इसके लिए, वे वास्तुकला के स्टाइल, खिड़कियों, दरवाज़ों, और साइज़ में छोटे अंतर का हवाला दे सकते हैं. हालांकि, वही लिलिपुटियन यह भी कह सकते हैं कि ब्रोबडिंगनियन सभी एक जैसे घरों में रहते हैं.

आउट-ग्रुप होमोजेनिटी बायस, ग्रुप एट्रिब्यूशन बायस का एक टाइप है.

इन-ग्रुप बायस भी देखें.

आउटलायर का पता लगाना

ट्रेनिंग सेट में आउटलायर की पहचान करने की प्रोसेस.

नए कॉन्टेंट का पता लगाने की सुविधा के साथ तुलना करें.

जिसकी परफ़ॉर्मेंस सामान्य से अलग रही

ऐसी वैल्यू जो ज़्यादातर अन्य वैल्यू से अलग हों. मशीन लर्निंग में, इनमें से कोई भी आउटलायर होता है:

  • ऐसा इनपुट डेटा जिसकी वैल्यू, माध्य से करीब तीन स्टैंडर्ड डिविएशन से ज़्यादा हो.
  • ज़्यादा ऐब्सलूट वैल्यू वाले वज़न.
  • अनुमानित वैल्यू, असल वैल्यू से काफ़ी अलग हैं.

उदाहरण के लिए, मान लें कि widget-price किसी मॉडल की सुविधा है. मान लें कि widget-price का औसत 7 यूरो है और उसका स्टैंडर्ड डिविएशन 1 यूरो है. इसलिए, 12 यूरो या 2 यूरो के widget-price वाले उदाहरणों को आउटलायर माना जाएगा, क्योंकि इनमें से हर कीमत, माध्य से पांच स्टैंडर्ड डेविएशन है.

आउटलायर की वजह अक्सर टाइपिंग की गलतियां या इनपुट से जुड़ी अन्य गलतियां होती हैं. कुछ मामलों में, आउटलायर गलतियां नहीं होतीं. आखिर, माध्य से पांच स्टैंडर्ड डिविएशन दूर की वैल्यू मिलना मुश्किल है, लेकिन असंभव नहीं.

आउटलायर की वजह से, मॉडल को ट्रेनिंग देने में अक्सर समस्याएं आती हैं. आउटलायर को मैनेज करने का एक तरीका, क्लिपिंग है.

आउट-ऑफ़-बैग इवैल्यूएशन (ओओबी इवैल्यूएशन)

#df

डिसीज़न फ़ॉरेस्ट की क्वालिटी का आकलन करने का तरीका. इसमें हर डिसीज़न ट्री की जांच, उन उदाहरणों के आधार पर की जाती है जिनका इस्तेमाल, उस डिसीज़न ट्री के ट्रेनिंग के दौरान नहीं किया गया था. उदाहरण के लिए, यहां दिए गए डायग्राम में देखें कि सिस्टम, हर डिसीज़न ट्री को करीब दो-तिहाई उदाहरणों पर ट्रेन करता है. इसके बाद, बाकी एक-तिहाई उदाहरणों के आधार पर उसका आकलन करता है.

तीन डिसीज़न ट्री वाला डिसीज़न फ़ॉरेस्ट.
          एक डिसीज़न ट्री, दो-तिहाई उदाहरणों पर ट्रेनिंग लेता है और फिर बाकी एक-तिहाई उदाहरणों का इस्तेमाल, ओओबी (ऑउट ऑफ़ बैंड) आकलन के लिए करता है.
          दूसरा डिसिज़न ट्री, पिछले डिसिज़न ट्री के मुकाबले दो-तिहाई अलग-अलग उदाहरणों पर ट्रेनिंग करता है. इसके बाद, ओयूबी (ऑउट ऑफ़ बैंड) आकलन के लिए, पिछले डिसिज़न ट्री के मुकाबले एक-तिहाई अलग-अलग उदाहरणों का इस्तेमाल करता है.

आउट-ऑफ़-बैग आकलन, क्रॉस-पुष्टि के तरीके का एक बेहतर और कम अनुमानित तरीका है. क्रॉस-वैलिडेशन में, हर क्रॉस-वैलिडेशन राउंड के लिए एक मॉडल को ट्रेन किया जाता है (उदाहरण के लिए, 10-फ़ोल्ड क्रॉस-वैलिडेशन में 10 मॉडल को ट्रेन किया जाता है). ओओबी (ऑउट ऑफ़ बैंड) आकलन की मदद से, एक मॉडल को ट्रेन किया जाता है. बैगिंग, ट्रेनिंग के दौरान हर ट्री से कुछ डेटा को अलग रखती है. इसलिए, ओयूबी (ऑउट ऑफ़ बैंड) आकलन, क्रॉस-वैलिडेशन का अनुमान लगाने के लिए उस डेटा का इस्तेमाल कर सकती है.

आउटपुट लेयर

#fundamentals

न्यूरल नेटवर्क की "आखिरी" लेयर. आउटपुट लेयर में अनुमान होता है.

इस इलस्ट्रेशन में, एक छोटा डीप न्यूरल नेटवर्क दिखाया गया है. इसमें इनपुट लेयर, दो हिडन लेयर, और एक आउटपुट लेयर है:

एक इनपुट लेयर, दो हिडन लेयर, और एक आउटपुट लेयर वाला न्यूरल नेटवर्क. इनपुट लेयर में दो सुविधाएं होती हैं. पहली
          हिडन लेयर में तीन न्यूरॉन और दूसरी हिडन लेयर में दो न्यूरॉन होते हैं. आउटपुट लेयर में एक ही नोड होता है.

ओवरफ़िटिंग

#fundamentals

ऐसा मॉडल बनाना जो ट्रेनिंग डेटा से काफ़ी हद तक मेल खाता हो. इससे मॉडल, नए डेटा के लिए सही अनुमान नहीं लगा पाता.

रेगुलराइज़ेशन से, ओवरफ़िटिंग कम हो सकती है. बड़े और अलग-अलग तरह के ट्रेनिंग सेट पर ट्रेनिंग करने से, ओवरफ़िटिंग की समस्या भी कम हो सकती है.

ओवरसैंपलिंग

क्लास के असंतुलन वाले डेटासेट में, माइनॉरिटी क्लास के उदाहरणों का फिर से इस्तेमाल करना, ताकि ट्रेनिंग सेट को ज़्यादा संतुलित बनाया जा सके.

उदाहरण के लिए, बाइनरी क्लासिफ़िकेशन वाली ऐसी समस्या पर विचार करें जिसमें बड़ी क्लास का अनुपात, छोटी क्लास से 5,000:1 है. अगर डेटासेट में एक लाख उदाहरण हैं, तो डेटासेट में अल्पसंख्यक क्लास के सिर्फ़ 200 उदाहरण हैं. हो सकता है कि असरदार ट्रेनिंग के लिए, ये उदाहरण बहुत कम हों. इस कमी को दूर करने के लिए, उन 200 उदाहरणों का कई बार इस्तेमाल किया जा सकता है. इससे, काम की ट्रेनिंग के लिए ज़रूरत के मुताबिक उदाहरण मिल सकते हैं.

ज़्यादा सैंपलिंग करते समय, आपको ओवरफ़िटिंग से बचना होगा.

कम सैंपलिंग के साथ तुलना करें.

P

पैक किया गया डेटा

डेटा को ज़्यादा बेहतर तरीके से सेव करने का तरीका.

पैक किया गया डेटा, डेटा को कंप्रेस किए गए फ़ॉर्मैट में या किसी ऐसे दूसरे तरीके से सेव करता है जिससे उसे ज़्यादा बेहतर तरीके से ऐक्सेस किया जा सके. पैक किए गए डेटा को ऐक्सेस करने के लिए, कम मेमोरी और कम कैलकुलेशन की ज़रूरत होती है. इससे मॉडल को तेज़ी से ट्रेनिंग मिलती है और बेहतर तरीके से अनुमान लगाया जा सकता है.

पैक किए गए डेटा का इस्तेमाल अक्सर अन्य तकनीकों के साथ किया जाता है. जैसे, डेटा बढ़ाना और नियमित करना. इससे मॉडल की परफ़ॉर्मेंस और बेहतर होती है.

पांडा

#fundamentals

कॉलम-ओरिएंटेड डेटा विश्लेषण एपीआई, जो numpy पर आधारित है. TensorFlow के साथ-साथ कई मशीन लर्निंग फ़्रेमवर्क, इनपुट के तौर पर pandas डेटा स्ट्रक्चर का इस्तेमाल करते हैं. ज़्यादा जानकारी के लिए, pandas का दस्तावेज़ देखें.

पैरामीटर

#fundamentals

वज़न और पक्षपात, जिन्हें मॉडल ट्रेनिंग के दौरान सीखता है. उदाहरण के लिए, लीनियर रिग्रेशन मॉडल में, पैरामीटर में नीचे दिए गए फ़ॉर्मूले में, बायस (b) और सभी वेट (w1, w2 वगैरह) शामिल होते हैं:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

इसके उलट, हाइपरपैरामीटर वे वैल्यू होती हैं जिन्हें आप या कोई हाइपरपैरामीटर ट्यूनिंग सेवा, मॉडल को देती है. उदाहरण के लिए, लर्निंग रेट एक हाइपरपैरामीटर है.

पैरामीटर-इफ़िशिएंट ट्यूनिंग

#language
#generativeAI

पहले से ट्रेन किए गए भाषा मॉडल (पीएलएम) को पूरी तरह से फ़ाइन-ट्यून करने के मुकाबले, ज़्यादा असरदार तरीके से फ़ाइन-ट्यून करने के लिए तकनीकों का सेट. पैरामीटर के हिसाब से बेहतर ट्यूनिंग, आम तौर पर पूरे फ़ाइन-ट्यूनिंग की तुलना में बहुत कम पैरामीटर को फ़ाइन-ट्यून करती है. इसके बावजूद, आम तौर पर यह एक ऐसा बड़ा लैंग्वेज मॉडल बनाती है जो पूरे फ़ाइन-ट्यूनिंग से बनाए गए बड़े लैंग्वेज मॉडल की तरह ही परफ़ॉर्म करता है या लगभग वैसा ही परफ़ॉर्म करता है.

पैरामीटर-इफ़िशिएंट ट्यूनिंग की तुलना इनसे करें:

पैरामीटर-इफ़िशिएंट ट्यूनिंग को पैरामीटर-इफ़िशिएंट फ़ाइन-ट्यूनिंग भी कहा जाता है.

पैरामीटर सर्वर (पीएस)

#TensorFlow

एक ऐसा जॉब जो डिस्ट्रिब्यूट की गई सेटिंग में, मॉडल के पैरामीटर को ट्रैक करता है.

पैरामीटर अपडेट

ट्रेनिंग के दौरान, मॉडल के पैरामीटर में बदलाव करने की प्रोसेस. आम तौर पर, यह बदलाव ग्रेडिएंट डिसेंट के एक ही दोहराव में किया जाता है.

आंशिक डेरिवेटिव

ऐसा डेरिवेटिव जिसमें एक वैरिएबल को छोड़कर सभी वैरिएबल को एक जैसा माना जाता है. उदाहरण के लिए, x के हिसाब से f(x, y) का आंशिक डेरिवेटिव, f का डेरिवेटिव होता है. इसे सिर्फ़ x के फ़ंक्शन के तौर पर माना जाता है. इसका मतलब है कि y को एक जैसा बनाए रखना. x के हिसाब से f का आंशिक डेरिवेटिव, सिर्फ़ इस बात पर फ़ोकस करता है कि x में क्या बदलाव हो रहा है. साथ ही, यह समीकरण के अन्य सभी वैरिएबल को अनदेखा करता है.

हिस्सा लेने वाले लोगों के पक्ष में झुकाव

#fairness

नॉन-रिस्पॉन्स बायस का दूसरा नाम. चुनी गई वैल्यू में बायस देखें.

डेटा को बांटने की रणनीति

वह एल्गोरिदम जिसकी मदद से वैरिएबल को पैरामीटर सर्वर में बांटा जाता है.

k पर पास करें (pass@k)

लार्ज लैंग्वेज मॉडल से जनरेट किए गए कोड (उदाहरण के लिए, Python) की क्वालिटी का पता लगाने वाली मेट्रिक. ज़्यादा जानकारी के लिए, k पर पास होने का मतलब है कि k जनरेट किए गए कोड ब्लॉक में से कम से कम एक कोड ब्लॉक, अपनी सभी यूनिट टेस्ट पास करेगा.

लार्ज लैंग्वेज मॉडल, अक्सर प्रोग्रामिंग की मुश्किल समस्याओं के लिए अच्छा कोड जनरेट करने में परेशानी महसूस करते हैं. सॉफ़्टवेयर इंजीनियर, एक ही समस्या के लिए कई (k) समाधान जनरेट करने के लिए, लार्ज लैंग्वेज मॉडल को निर्देश देते हैं. इसके बाद, सॉफ़्टवेयर इंजीनियर यूनिट टेस्ट के हिसाब से, हर समाधान की जांच करते हैं. k पर पास होने का हिसाब, यूनिट टेस्ट के नतीजों पर निर्भर करता है:

  • अगर उनमें से एक या उससे ज़्यादा समाधान यूनिट टेस्ट पास करते हैं, तो एलएलएम कोड जनरेशन चैलेंज को पास कर लेता है.
  • अगर कोई भी समाधान यूनिट टेस्ट पास नहीं करता है, तो एलएलएम कोड जनरेशन चैलेंज में फ़ेल हो जाता है.

k पर पास करने का फ़ॉर्मूला इस तरह है:

$$\text{pass at k} = \frac{\text{total number of passes}} {\text{total number of challenges}}$$

आम तौर पर, k की ज़्यादा वैल्यू से k स्कोर में ज़्यादा पास मिलते हैं. हालांकि, k की ज़्यादा वैल्यू के लिए, ज़्यादा बड़े लैंग्वेज मॉडल और यूनिट टेस्टिंग के संसाधनों की ज़रूरत होती है.

Pax

यह एक प्रोग्रामिंग फ़्रेमवर्क है, जिसे बड़े पैमाने पर न्यूरल नेटवर्क मॉडल को ट्रेन करने के लिए डिज़ाइन किया गया है. ये मॉडल इतने बड़े होते हैं कि वे एक से ज़्यादा TPU ऐक्सेलरेटर चिप स्लाइस या पॉड पर काम करते हैं.

Pax, Flax पर आधारित है. Flax, JAX पर आधारित है.

सॉफ़्टवेयर स्टैक में Pax की पोज़िशन दिखाने वाला डायग्राम.
          Pax, JAX के ऊपर बनाया गया है. Pax में तीन लेयर होती हैं. सबसे नीचे मौजूद लेयर में TensorStore और Flax शामिल हैं.
          मिडल लेयर में Optax और Flaxformer शामिल हैं. सबसे ऊपर वाली लेयर में, Praxis मॉडलिंग लाइब्रेरी होती है. Fiddle को Pax के ऊपर बनाया गया है.

परसेप्ट्रॉन

एक सिस्टम (हार्डवेयर या सॉफ़्टवेयर), जो एक या उससे ज़्यादा इनपुट वैल्यू लेता है, इनपुट के वेटेड योग पर फ़ंक्शन चलाता है, और एक आउटपुट वैल्यू का हिसाब लगाता है. मशीन लर्निंग में, फ़ंक्शन आम तौर पर नॉन-लाइनर होता है. जैसे, ReLU, सिग्मॉइड या tanh. उदाहरण के लिए, नीचे दिया गया परसेप्ट्रॉन, तीन इनपुट वैल्यू को प्रोसेस करने के लिए सिग्मॉइड फ़ंक्शन पर निर्भर करता है:

$$f(x_1, x_2, x_3) = \text{sigmoid}(w_1 x_1 + w_2 x_2 + w_3 x_3)$$

नीचे दिए गए इलस्ट्रेशन में, परसेप्ट्रॉन तीन इनपुट लेता है. इनमें से हर इनपुट को परसेप्ट्रॉन में शामिल करने से पहले, वज़न के हिसाब से बदला जाता है:

एक परसेप्ट्रॉन, जिसमें तीन इनपुट होते हैं और हर इनपुट को अलग-अलग
          वेट से गुणा किया जाता है. परसेप्ट्रॉन एक ही वैल्यू दिखाता है.

परसेप्ट्रॉन, न्यूरल नेटवर्क में मौजूद न्यूरॉन होते हैं.

प्रदर्शन

अलग-अलग मतलब के लिए इस्तेमाल किया जाने वाला शब्द:

  • सॉफ़्टवेयर इंजीनियरिंग में इसका स्टैंडर्ड मतलब. जैसे: यह सॉफ़्टवेयर कितना तेज़ (या बेहतर) तरीके से काम करता है?
  • मशीन लर्निंग में इसका मतलब. यहां परफ़ॉर्मेंस से इस सवाल का जवाब मिलता है: यह मॉडल कितना सही है? इसका मतलब है कि मॉडल के अनुमान कितने अच्छे हैं?

पर्म्यूटेशन वैरिएबल की अहमियत

#df

वैरिएबल की अहमियत का एक टाइप, जो फ़ीचर की वैल्यू को बदलने के बाद, मॉडल के अनुमान में हुई गड़बड़ी का आकलन करता है. वैरिएशन के क्रम में बदलाव करने की अहमियत, मॉडल पर निर्भर नहीं करती.

perplexity

इससे यह पता चलता है कि मॉडल अपना टास्क कितनी अच्छी तरह पूरा कर रहा है. उदाहरण के लिए, मान लें कि आपका टास्क किसी ऐसे शब्द के पहले कुछ अक्षर पढ़ना है जिसे कोई उपयोगकर्ता फ़ोन के कीबोर्ड पर टाइप कर रहा है. साथ ही, उस शब्द को पूरा करने के लिए, संभावित शब्दों की सूची देना है. इस टास्क के लिए, पेरप्लेक्सिटी, P, अनुमानित तौर पर उन अनुमानों की संख्या होती है जिन्हें आपको अपनी सूची में शामिल करना होता है, ताकि उसमें वह असली शब्द शामिल हो जिसे उपयोगकर्ता टाइप करने की कोशिश कर रहा है.

पेरप्लेक्सिटी, क्रॉस-एन्ट्रापी से इस तरह जुड़ी है:

$$P= 2^{-\text{cross entropy}}$$

पाइपलाइन

मशीन लर्निंग एल्गोरिदम से जुड़ा इन्फ़्रास्ट्रक्चर. पाइपलाइन में, डेटा इकट्ठा करना, डेटा को ट्रेनिंग डेटा फ़ाइलों में डालना, एक या उससे ज़्यादा मॉडल को ट्रेनिंग देना, और मॉडल को प्रोडक्शन में एक्सपोर्ट करना शामिल है.

पाइपलाइन

#language

मॉडल के पैरलल प्रोसेसिंग का एक फ़ॉर्म, जिसमें मॉडल की प्रोसेसिंग को लगातार चरण में बांटा जाता है और हर चरण को अलग-अलग डिवाइस पर चलाया जाता है. जब कोई चरण एक बैच को प्रोसेस कर रहा होता है, तब पिछला चरण अगले बैच पर काम कर सकता है.

स्टेज की गई ट्रेनिंग भी देखें.

pjit

JAX फ़ंक्शन, कोड को कई ऐक्सेलरेटर चिप पर चलाने के लिए बांटता है. उपयोगकर्ता, pjit फ़ंक्शन को एक फ़ंक्शन पास करता है. इससे एक ऐसा फ़ंक्शन मिलता है जिसमें मिलते-जुलते सेमेटिक्स होते हैं, लेकिन इसे XLA कंप्यूटेशन में कंपाइल किया जाता है. यह कंप्यूटेशन, कई डिवाइसों (जैसे, जीपीयू या TPU कोर) पर चलता है.

pjit की मदद से, उपयोगकर्ता SPMD पार्टीशनर का इस्तेमाल करके, कैलकुलेशन को फिर से लिखे बिना उन्हें शेयर कर सकते हैं.

मार्च 2023 से, pjit को jit के साथ मर्ज कर दिया गया है. ज़्यादा जानकारी के लिए, डिस्ट्रिब्यूटेड ऐरे और ऑटोमैटिक पैरलललाइज़ेशन देखें.

PLM

#language
#generativeAI

पहले से ट्रेन किए गए लैंग्वेज मॉडल का छोटा नाम.

pmap

JAX फ़ंक्शन, जो अलग-अलग इनपुट वैल्यू के साथ, कई हार्डवेयर डिवाइसों (सीपीयू, जीपीयू या टीपीयू) पर इनपुट फ़ंक्शन की कॉपी को चलाता है. pmap, SPMD पर निर्भर करता है.

policy

#rl

रीइंफ़ोर्समेंट लर्निंग में, एजेंट की संभावित मैपिंग, स्टेटस से कार्रवाइयों तक होती है.

पूल करना

#image

किसी मैट्रिक (या मैट्रिक) को छोटा करना, जिसे पहले बनाई गई कन्वोल्यूशनल लेयर ने बनाया है. आम तौर पर, पूल किए गए एरिया में ज़्यादा से ज़्यादा या औसत वैल्यू ली जाती है. उदाहरण के लिए, मान लें कि हमारे पास यह 3x3 मैट्रिक्स है:

3x3 मैट्रिक्स [[5,3,1], [8,2,5], [9,4,3]].

पूलिंग ऑपरेशन, कॉन्वोल्यूशनल ऑपरेशन की तरह ही, उस मैट्रिक्स को स्लाइस में बांटता है. इसके बाद, उस कॉन्वोल्यूशनल ऑपरेशन को स्ट्राइड के हिसाब से स्लाइड करता है. उदाहरण के लिए, मान लें कि पूल करने की प्रोसेस, कॉन्वोल्यूशनल मैट्रिक्स को 1x1 स्ट्राइड के साथ 2x2 स्लाइस में बांटती है. नीचे दिए गए डायग्राम में दिखाया गया है कि पूल करने के चार तरीके हैं. मान लें कि पूल करने की हर कार्रवाई, उस स्लाइस में चार में से सबसे बड़ी वैल्यू चुनती है:

इनपुट मैट्रिक्स 3x3 है और इसमें ये वैल्यू हैं: [[5,3,1], [8,2,5], [9,4,3]].
          इनपुट मैट्रिक की सबसे ऊपर बाईं ओर मौजूद 2x2 सबमैट्रिक [[5,3], [8,2]] है. इसलिए, सबसे ऊपर बाईं ओर पूल करने पर वैल्यू 8 मिलती है. यह वैल्यू, 5, 3, 8, और 2 में से सबसे ज़्यादा है. इनपुट मैट्रिक की सबसे ऊपर दाईं ओर मौजूद 2x2 सबमैट्रिक [[3,1], [2,5]] है. इसलिए, सबसे ऊपर दाईं ओर पूल करने पर वैल्यू 5 मिलती है. इनपुट मैट्रिक की सबसे नीचे बाईं ओर मौजूद 2x2 सबमैट्रिक,
          [[8,2], [9,4]] है. इसलिए, सबसे नीचे बाईं ओर पूल करने पर वैल्यू
          9 मिलती है. इनपुट मैट्रिक की सबसे नीचे दाईं ओर मौजूद 2x2 सबमैट्रिक,
          [[2,5], [4,3]] है. इसलिए, सबसे नीचे दाईं ओर पूल करने पर वैल्यू
          5 मिलती है. खास जानकारी के तौर पर, पूल करने की प्रोसेस से 2x2 मैट्रिक्स मिलती है
          [[8,5], [9,5]].

पूल करने से, इनपुट मैट्रिक में ट्रांसलेशन इनवैरिएंस लागू करने में मदद मिलती है.

विज़न ऐप्लिकेशन के लिए पूल करने की प्रोसेस को स्पेशल पूलिंग कहा जाता है. टाइम सीरीज़ वाले ऐप्लिकेशन में, आम तौर पर पूल करने की प्रोसेस को समय के हिसाब से पूल करना कहा जाता है. आम तौर पर, पूल करने की प्रोसेस को सबसैंपलिंग या डाउनसैंपलिंग कहा जाता है.

पोज़िशनल कोड

#language

टोकन को एम्बेड करने के लिए, किसी क्रम में टोकन की स्थिति की जानकारी जोड़ने की तकनीक. ट्रांसफ़ॉर्मर मॉडल, पोज़िशनल एन्कोडिंग का इस्तेमाल करके, क्रम के अलग-अलग हिस्सों के बीच के संबंध को बेहतर तरीके से समझते हैं.

पोज़िशनल कोडिंग को लागू करने के लिए, आम तौर पर साइनस फ़ंक्शन का इस्तेमाल किया जाता है. (खास तौर पर, साइनसोइडल फ़ंक्शन की फ़्रीक्वेंसी और ऐम्प्ल्यट्यूड, क्रम में टोकन की पोज़िशन से तय होता है.) इस तकनीक की मदद से, ट्रांसफ़ॉर्मर मॉडल, क्रम के अलग-अलग हिस्सों पर ध्यान देना सीखता है.

पॉज़िटिव क्लास

#fundamentals

वह क्लास जिसकी जांच की जा रही है.

उदाहरण के लिए, कैंसर मॉडल में पॉज़िटिव क्लास "ट्यूमर" हो सकती है. ईमेल क्लासिफ़ायर में पॉज़िटिव क्लास "स्पैम" हो सकती है.

नेगेटिव क्लास के साथ कंट्रास्ट करें.

प्रोसेस होने के बाद

#fairness
#fundamentals

मॉडल को चलाने के बाद, मॉडल के आउटपुट में बदलाव करना. पोस्ट-प्रोसेसिंग का इस्तेमाल, मॉडल में बदलाव किए बिना, निष्पक्षता से जुड़ी पाबंदियों को लागू करने के लिए किया जा सकता है.

उदाहरण के लिए, किसी एट्रिब्यूट के लिए ट्रू पॉजिटिव रेट की वैल्यू एक जैसी हो, यह पक्का करने के लिए, क्लासिफ़िकेशन थ्रेशोल्ड सेट करके, बाइनरी क्लासिफ़ायर पर पोस्ट-प्रोसेसिंग लागू की जा सकती है. इससे, किसी एट्रिब्यूट के लिए समान अवसर बनाए रखा जा सकता है.

ट्रेनिंग के बाद का मॉडल

#language
#image
#generativeAI

यह एक ऐसा शब्द है जिसे अलग-अलग तरीके से परिभाषित किया जा सकता है. आम तौर पर, इसका मतलब पहले से ट्रेन किए गए मॉडल से होता है, जिसे पोस्ट-प्रोसेसिंग के कुछ चरणों से गुज़रना पड़ा है. जैसे, इनमें से एक या एक से ज़्यादा चरण:

पीआर AUC (पीआर कर्व के अंदर का हिस्सा)

इंटरपोलेशन किए गए प्रिसिज़न-रीकॉल कर्व के नीचे का एरिया. इसे क्लासिफ़िकेशन थ्रेशोल्ड की अलग-अलग वैल्यू के लिए, (रीकॉल, प्रिसिज़न) पॉइंट प्लॉट करके पाया जाता है.

Praxis

Pax की मुख्य और बेहतरीन परफ़ॉर्मेंस वाली एमएल लाइब्रेरी. प्रैक्टिस को अक्सर "लेयर लाइब्रेरी" कहा जाता है.

Praxis में, लेयर क्लास की परिभाषाओं के साथ-साथ, इसके साथ काम करने वाले ज़्यादातर कॉम्पोनेंट भी शामिल हैं. इनमें ये शामिल हैं:

Praxis, मॉडल क्लास की परिभाषाएं देता है.

प्रीसिज़न

क्लासिफ़िकेशन मॉडल के लिए एक मेट्रिक, जो इस सवाल का जवाब देती है:

जब मॉडल ने पॉज़िटिव क्लास का अनुमान लगाया, तो कितने प्रतिशत अनुमान सही थे?

यहां फ़ॉर्मूला दिया गया है:

$$\text{Precision} = \frac{\text{true positives}} {\text{true positives} + \text{false positives}}$$

कहां:

  • 'सही मायनों में पॉज़िटिव' का मतलब है कि मॉडल ने पॉज़िटिव क्लास का सही अनुमान लगाया.
  • फ़ॉल्स पॉज़िटिव का मतलब है कि मॉडल ने गलती से पॉज़िटिव क्लास का अनुमान लगाया है.

उदाहरण के लिए, मान लें कि किसी मॉडल ने 200 पॉज़िटिव अनुमान लगाए. इन 200 पॉज़िटिव अनुमानों में से:

  • 150 ट्रू पॉज़िटिव थे.
  • इनमें से 50 फ़ॉल्स पॉज़िटिव थे.

इस मामले में:

$$\text{Precision} = \frac{\text{150}} {\text{150} + \text{50}} = 0.75$$

सटीक और रीकॉल के साथ कंट्रास्ट करें.

ज़्यादा जानकारी के लिए, क्लासिफ़िकेशन: सटीक जानकारी, रीकॉल, सटीक जानकारी, और इससे जुड़ी मेट्रिक देखें.

k पर सटीक (precision@k)

#language

आइटम की रैंक वाली सूची का आकलन करने वाली मेट्रिक. k पर सटीक नतीजे, सूची में पहले k आइटम में से "काम के" आइटम के हिस्से की पहचान करते हैं. यानी:

\[\text{precision at k} = \frac{\text{relevant items in first k items of the list}} {\text{k}}\]

k की वैल्यू, लिस्ट में मौजूद आइटम की संख्या से कम या उसके बराबर होनी चाहिए. ध्यान दें कि लौटाई गई सूची की लंबाई, हिसाब लगाने का हिस्सा नहीं है.

काम का होना या न होना, अक्सर व्यक्तिगत राय पर निर्भर करता है. विश्लेषक भी अक्सर इस बात पर सहमत नहीं होते कि कौनसे आइटम काम के हैं.

इसके साथ तुलना करें:

प्रीसिज़न-रीकॉल कर्व

अलग-अलग क्लासिफ़िकेशन थ्रेशोल्ड पर, प्रिसिज़न बनाम रीकॉल का कर्व.

अनुमान

#fundamentals

मॉडल का आउटपुट. उदाहरण के लिए:

  • बाइनरी क्लासिफ़िकेशन मॉडल का अनुमान, पॉज़िटिव क्लास या नेगेटिव क्लास में से कोई एक होता है.
  • मल्टी-क्लास क्लासिफ़िकेशन मॉडल का अनुमान, एक क्लास का होता है.
  • लीनियर रिग्रेशन मॉडल का अनुमान एक संख्या होती है.

अनुमान में पक्षपात

यह वैल्यू बताती है कि डेटासेट में अनुमान का औसत, लेबल के औसत से कितना अलग है.

इसे मशीन लर्निंग मॉडल में मौजूद बायस या नैतिकता और निष्पक्षता में बायस के साथ न जोड़ें.

अनुमानित एमएल

कोई भी स्टैंडर्ड ("क्लासिक") मशीन लर्निंग सिस्टम.

प्रेडिकटिव एमएल शब्द की कोई आधिकारिक परिभाषा नहीं है. इसके बजाय, यह शब्द एमएल सिस्टम की उस कैटगरी को अलग करता है जो जनरेटिव एआई पर आधारित नहीं है.

अनुमानित पैरिटी

#fairness

यह एक निष्पक्षता मेट्रिक है. इससे यह पता चलता है कि किसी क्लासिफ़ायर के लिए, सटीक रेटिंग, सबग्रुप के लिए एक जैसी हैं या नहीं.

उदाहरण के लिए, कॉलेज में दाखिला पाने का अनुमान लगाने वाला मॉडल, देश के हिसाब से समानता का अनुमान तब ही देगा, जब लिलिपुटियन और ब्रॉबडिंगनियन के लिए सटीकता की दर एक जैसी हो.

अनुमानित किराया बराबरी को कभी-कभी किराया बराबरी का अनुमान भी कहा जाता है.

अनुमानित समानता के बारे में ज़्यादा जानकारी के लिए, "निष्पक्षता की परिभाषाओं के बारे में जानकारी" (सेक्शन 3.2.1) देखें.

किराये की अनुमानित समानता

#fairness

प्रेडिकटिव पैरिटी का दूसरा नाम.

डेटा को पहले से प्रोसेस करना

#fairness
मॉडल को ट्रेनिंग देने से पहले, डेटा को प्रोसेस करना. डेटा को पहले से प्रोसेस करना उतना ही आसान हो सकता है जितना कि अंग्रेज़ी के टेक्स्ट कॉर्पस से ऐसे शब्द हटाना जो अंग्रेज़ी की डिक्शनरी में नहीं होते. इसके अलावा, यह इतना मुश्किल भी हो सकता है जितना कि डेटा पॉइंट को इस तरह से फिर से एक्सप्रेशन करना कि संवेदनशील एट्रिब्यूट से जुड़े ज़्यादा से ज़्यादा एट्रिब्यूट हट जाएं. डेटा को पहले से प्रोसेस करने से, निष्पक्षता से जुड़ी शर्तों को पूरा करने में मदद मिल सकती है.

पहले से ट्रेन किया गया मॉडल

#language
#image
#generativeAI

आम तौर पर, ऐसा मॉडल जिसे पहले ही ट्रेन किया जा चुका है. इस शब्द का मतलब, पहले से ट्रेन किए गए एम्बेडिंग वेक्टर से भी हो सकता है.

पहले से ट्रेन किए गए लैंग्वेज मॉडल का मतलब आम तौर पर, पहले से ट्रेन किए गए बड़े लैंग्वेज मॉडल से होता है.

प्री-ट्रेनिंग

#language
#image
#generativeAI

बड़े डेटासेट पर मॉडल की शुरुआती ट्रेनिंग. पहले से ट्रेन किए गए कुछ मॉडल, बड़े और जटिल होते हैं. आम तौर पर, उन्हें अतिरिक्त ट्रेनिंग देकर बेहतर बनाया जाता है. उदाहरण के लिए, एमएल विशेषज्ञ किसी बड़े टेक्स्ट डेटासेट पर, बड़े लैंग्वेज मॉडल को पहले से ट्रेन कर सकते हैं. जैसे, विकिपीडिया के सभी अंग्रेज़ी पेज. प्री-ट्रेनिंग के बाद, इनमें से किसी भी तकनीक का इस्तेमाल करके, मॉडल को और बेहतर बनाया जा सकता है:

पहले से मौजूद विश्वास

डेटा पर ट्रेनिंग शुरू करने से पहले, आपके पास उसके बारे में क्या जानकारी है. उदाहरण के लिए, L2 रेगुलराइज़ेशन, इस पूर्व मान्यता पर आधारित है कि वेट कम होने चाहिए और आम तौर पर शून्य के आस-पास डिस्ट्रिब्यूट होने चाहिए.

प्रॉबेबलिस्टिक रिग्रेशन मॉडल

ऐसा रिग्रेशन मॉडल जो हर सुविधा के लिए, वज़न के साथ-साथ उन वज़न की अनिश्चितता का भी इस्तेमाल करता है. संभावित रेग्रेसन मॉडल, अनुमान और उस अनुमान की अनिश्चितता जनरेट करता है. उदाहरण के लिए, संभाव्यता वाले रिग्रेशन मॉडल से, 12 के स्टैंडर्ड डेविएशन के साथ 325 का अनुमान मिल सकता है. संभावित रिग्रेशन मॉडल के बारे में ज़्यादा जानने के लिए, tensorflow.org पर मौजूद Colab देखें.

प्रोबैबिलिटी डेंसिटी फ़ंक्शन

यह फ़ंक्शन, किसी खास वैल्यू वाले डेटा सैंपल की फ़्रीक्वेंसी की पहचान करता है. जब किसी डेटासेट की वैल्यू, लगातार फ़्लोटिंग-पॉइंट वाली संख्याएं होती हैं, तो एग्ज़ैक्ट मैच बहुत कम होते हैं. हालांकि, वैल्यू x से वैल्यू y तक, प्रोबैबिलिटी डेंसिटी फ़ंक्शन को इंटिग्रेट करने पर, x और y के बीच डेटा सैंपल की अनुमानित फ़्रीक्वेंसी मिलती है.

उदाहरण के लिए, मान लें कि किसी नॉर्मल डिस्ट्रिब्यूशन का औसत 200 और स्टैंडर्ड डिवीऐशन 30 है. 211.4 से 218.7 की रेंज में आने वाले डेटा सैंपल की अनुमानित फ़्रीक्वेंसी तय करने के लिए, 211.4 से 218.7 के बीच के सामान्य डिस्ट्रिब्यूशन के लिए, प्रायिकता घनत्व फ़ंक्शन को इंटिग्रेट किया जा सकता है.

प्रॉम्प्ट

#language
#generativeAI

लार्ज लैंग्वेज मॉडल के लिए इनपुट के तौर पर डाला गया कोई भी टेक्स्ट, ताकि मॉडल किसी खास तरीके से काम कर सके. प्रॉम्प्ट, किसी वाक्यांश जितना छोटा या ज़रूरत के हिसाब से लंबा हो सकता है. उदाहरण के लिए, किसी उपन्यास का पूरा टेक्स्ट. प्रॉम्प्ट कई कैटगरी में आते हैं. इनमें से कुछ कैटगरी नीचे दी गई टेबल में दिखाई गई हैं:

प्रॉम्प्ट की कैटगरी उदाहरण नोट
सवाल कबूतर कितनी तेज़ी से उड़ सकता है?
निर्देश अरेबिट्रेज के बारे में कोई मज़ेदार कविता लिखें. ऐसा प्रॉम्प्ट जिसमें लार्ज लैंग्वेज मॉडल से कुछ करने के लिए कहा जाता है.
उदाहरण Markdown कोड को एचटीएमएल में बदलें. उदाहरण के लिए:
Markdown: * सूची का आइटम
एचटीएमएल: <ul> <li>सूची का आइटम</li> </ul>
इस उदाहरण वाले प्रॉम्प्ट का पहला वाक्य एक निर्देश है. प्रॉम्प्ट का बाकी हिस्सा उदाहरण है.
भूमिका बताएं कि भौतिकी में पीएचडी करने के लिए, मशीन लर्निंग ट्रेनिंग में ग्रेडिएंट डिसेंट का इस्तेमाल क्यों किया जाता है. वाक्य का पहला हिस्सा निर्देश है; "भौतिकी में पीएचडी" वाला वाक्यांश, भूमिका का हिस्सा है.
मॉडल को पूरा करने के लिए, कुछ इनपुट यूनाइटेड किंगडम के प्रधानमंत्री का घर कुछ हिस्से वाला इनपुट प्रॉम्प्ट, अचानक खत्म हो सकता है (जैसा कि इस उदाहरण में है) या अंडरस्कोर के साथ खत्म हो सकता है.

जनरेटिव एआई मॉडल, टेक्स्ट, कोड, इमेज, एम्बेड, वीडियो वगैरह के साथ प्रॉम्प्ट का जवाब दे सकता है.

प्रॉम्प्ट-आधारित लर्निंग

#language
#generativeAI

यह कुछ मॉडल की एक सुविधा है. इसकी मदद से, वे अपने व्यवहार में बदलाव कर सकते हैं, ताकि वे किसी भी टेक्स्ट इनपुट (प्रॉम्प्ट) के जवाब में सही जवाब दे सकें. प्रॉम्प्ट पर आधारित लर्निंग पैराडाइम में, लार्ज लैंग्वेज मॉडल, टेक्स्ट जनरेट करके प्रॉम्प्ट का जवाब देता है. उदाहरण के लिए, मान लें कि कोई उपयोगकर्ता यह प्रॉम्प्ट डालता है:

न्यूटन के गति के तीसरे नियम के बारे में खास जानकारी दें.

प्रॉम्प्ट के आधार पर लर्निंग करने वाले मॉडल को, पिछले प्रॉम्प्ट के जवाब देने के लिए खास तौर पर ट्रेनिंग नहीं दी जाती. इसके बजाय, मॉडल को भौतिकी के बारे में काफ़ी तथ्य "मालूम" हैं. साथ ही, उसे भाषा के सामान्य नियमों और आम तौर पर काम के जवाबों के बारे में काफ़ी जानकारी है. इस जानकारी से, उम्मीद है कि आपको काम का जवाब मिल जाएगा. लोगों के सुझाव, शिकायत या राय ("वह जवाब बहुत मुश्किल था" या "प्रतिक्रिया क्या है?") से, प्रॉम्प्ट पर आधारित लर्निंग सिस्टम को अपने जवाबों को धीरे-धीरे बेहतर बनाने में मदद मिलती है.

प्रॉम्प्ट डिज़ाइन

#language
#generativeAI

प्रॉम्प्ट इंजीनियरिंग का समानार्थी शब्द.

प्रॉम्प्ट इंजीनियरिंग

#language
#generativeAI

प्रॉम्प्ट बनाने की कला, जो लार्ज लैंग्वेज मॉडल से मनमुताबिक जवाब पाने में मदद करते हैं. प्रॉम्प्ट को इंसान बनाते हैं. लार्ज लैंग्वेज मॉडल से काम के जवाब पाने के लिए, सही तरीके से बनाए गए प्रॉम्प्ट लिखना ज़रूरी है. प्रॉम्प्ट इंजीनियरिंग कई बातों पर निर्भर करती है. जैसे:

  • लार्ज लैंग्वेज मॉडल को पहले से ट्रेन करने और शायद बेहतर बनाने के लिए इस्तेमाल किया जाने वाला डेटासेट.
  • temperature और डिकोड करने से जुड़े अन्य पैरामीटर, जिनका इस्तेमाल मॉडल जवाब जनरेट करने के लिए करता है.

मददगार प्रॉम्प्ट लिखने के बारे में ज़्यादा जानने के लिए, प्रॉम्प्ट डिज़ाइन के बारे में जानकारी देखें.

प्रॉम्प्ट डिज़ाइन, प्रॉम्प्ट इंजीनियरिंग का दूसरा नाम है.

प्रॉम्प्ट ट्यूनिंग

#language
#generativeAI

पैरामीटर को बेहतर तरीके से ट्यून करने का एक तरीका, जो "प्रीफ़िक्स" को सीखता है. सिस्टम, प्रॉम्प्ट के पहले इस प्रीफ़िक्स को जोड़ता है.

प्रॉम्प्ट ट्यूनिंग का एक वैरिएशन, प्रीफ़िक्स ट्यूनिंग है. इसमें हर लेयर में प्रीफ़िक्स जोड़ा जाता है. इसके उलट, ज़्यादातर प्रॉम्प्ट ट्यूनिंग सिर्फ़ इनपुट लेयर में प्रीफ़िक्स जोड़ती है.

प्रॉक्सी (संवेदनशील एट्रिब्यूट)

#fairness
यह एक ऐसा एट्रिब्यूट है जिसका इस्तेमाल, संवेदनशील एट्रिब्यूट के लिए किया जाता है. उदाहरण के लिए, किसी व्यक्ति के पिन कोड का इस्तेमाल, उसकी आय, नस्ल या जातीयता के बारे में जानकारी देने के लिए किया जा सकता है.

प्रॉक्सी लेबल

#fundamentals

डेटासेट में सीधे तौर पर उपलब्ध नहीं होने वाले लेबल का अनुमान लगाने के लिए इस्तेमाल किया जाने वाला डेटा.

उदाहरण के लिए, मान लें कि आपको कर्मचारी के तनाव के लेवल का अनुमान लगाने के लिए, किसी मॉडल को ट्रेन करना है. आपके डेटासेट में, अनुमान लगाने वाली कई सुविधाएं हैं, लेकिन इसमें तनाव का लेवल नाम का लेबल नहीं है. इसके बावजूद, आपने तनाव के लेवल के लिए, "ऑफ़िस में होने वाली दुर्घटनाएं" को प्रॉक्सी लेबल के तौर पर चुना. आखिरकार, तनाव में रहने वाले कर्मचारियों की तुलना में, शांत रहने वाले कर्मचारियों को ज़्यादा ऐक्सिडेंट होते हैं. क्या ऐसा है? ऐसा हो सकता है कि नौकरी के दौरान होने वाली दुर्घटनाओं की संख्या में कई वजहों से बढ़ोतरी और गिरावट आती हो.

दूसरे उदाहरण के तौर पर, मान लें कि आपको अपने डेटासेट के लिए, क्या बारिश हो रही है? को बूलियन लेबल बनाना है, लेकिन आपके डेटासेट में बारिश का डेटा मौजूद नहीं है. अगर फ़ोटो उपलब्ध हैं, तो क्या बारिश हो रही है? के लिए, छतरी लिए हुए लोगों की फ़ोटो को प्रॉक्सी लेबल के तौर पर सेट किया जा सकता है क्या यह एक अच्छा प्रॉक्सी लेबल है? हो सकता है, लेकिन कुछ देशों के लोग बारिश से ज़्यादा, धूप से बचने के लिए छतरी का इस्तेमाल करते हों.

प्रॉक्सी लेबल अक्सर सही नहीं होते. जब भी संभव हो, प्रॉक्सी लेबल के बजाय असली लेबल चुनें. हालांकि, अगर कोई असल लेबल मौजूद नहीं है, तो प्रॉक्सी लेबल को बहुत सावधानी से चुनें. साथ ही, सबसे कम खराब प्रॉक्सी लेबल चुनें.

प्योर फ़ंक्शन

ऐसा फ़ंक्शन जिसका आउटपुट सिर्फ़ उसके इनपुट पर आधारित होता है और जिसका कोई साइड इफ़ेक्ट नहीं होता. खास तौर पर, कोई प्योर फ़ंक्शन किसी भी ग्लोबल स्टेट का इस्तेमाल नहीं करता या उसे बदलता नहीं है. जैसे, किसी फ़ाइल का कॉन्टेंट या फ़ंक्शन के बाहर मौजूद वैरिएबल की वैल्यू.

थ्रेड-सेफ़ कोड बनाने के लिए, प्योर फ़ंक्शन का इस्तेमाल किया जा सकता है. यह तब फ़ायदेमंद होता है, जब मॉडल कोड को कई ऐक्सेलरेटर चिप पर शेयर किया जा रहा हो.

JAX के फ़ंक्शन ट्रांसफ़ॉर्मेशन के तरीकों के लिए, यह ज़रूरी है कि इनपुट फ़ंक्शन, प्योर फ़ंक्शन हों.

Q

Q-फ़ंक्शन

#rl

रीइंफ़ोर्समेंट लर्निंग में, यह फ़ंक्शन किसी स्थिति में कार्रवाई करने से मिलने वाले अनुमानित नतीजे का अनुमान लगाता है. इसके बाद, यह किसी दी गई नीति का पालन करता है.

Q-फ़ंक्शन को स्टेट-ऐक्शन वैल्यू फ़ंक्शन भी कहा जाता है.

क्यू-लर्निंग

#rl

रीइंफ़ोर्समेंट लर्निंग में, एक ऐसा एल्गोरिदम होता है जो एजेंट को बेलमैन समीकरण लागू करके, मार्कोव डिसीज़न प्रोसेस का सबसे अच्छा क्यू-फ़ंक्शन सीखने की अनुमति देता है. मार्कोव डिसीज़न प्रोसेस मॉडल, किसी एनवायरमेंट को मॉडल करता है.

क्वेनटाइल

क्वंटाइल बकेट करने की हर बकेट.

क्वैनटाइल बकेट

किसी सुविधा की वैल्यू को बकेट में बांटना, ताकि हर बकेट में एक जैसी (या लगभग एक जैसी) संख्या में उदाहरण हों. उदाहरण के लिए, यहां दिए गए आंकड़े में 44 पॉइंट को चार बकेट में बांटा गया है. हर बकेट में 11 पॉइंट हैं. इस तरह से, हर बकेट में एक ही संख्या में पॉइंट होते हैं. हालांकि, कुछ बकेट में x-वैल्यू की चौड़ाई अलग-अलग होती है.

44 डेटा पॉइंट, 11 पॉइंट की चार बकेट में बांट दिए गए हैं.
          हर बकेट में डेटा पॉइंट की संख्या एक जैसी होती है. हालांकि, कुछ बकेट में अन्य बकेट के मुकाबले, सुविधा की वैल्यू की रेंज ज़्यादा होती है.

क्वांटाइज़ेशन

ओवरलोड किया गया शब्द, जिसका इस्तेमाल इनमें से किसी भी तरीके से किया जा सकता है:

  • किसी खास विशेषता पर कवंटील बकेट को लागू करना.
  • डेटा को ज़ीरो और वन में बदलना, ताकि उसे तेज़ी से सेव किया जा सके, ट्रेनिंग दी जा सके, और उससे अनुमान लगाया जा सके. बूलियन डेटा, दूसरे फ़ॉर्मैट के मुकाबले गड़बड़ियों और ग़ैर-ज़रूरी डेटा के लिए ज़्यादा मज़बूत होता है. इसलिए, क्वांटाइज़ेशन से मॉडल की सटीकता को बेहतर बनाया जा सकता है. क्वांटाइज़ेशन की तकनीकों में, राउंडिंग, ट्रिंकेट करना, और बाइनिंग शामिल है.
  • मॉडल के पैरामीटर को सेव करने के लिए इस्तेमाल किए जाने वाले बिट की संख्या कम करना. उदाहरण के लिए, मान लें कि किसी मॉडल के पैरामीटर को 32-बिट फ़्लोटिंग-पॉइंट नंबर के तौर पर सेव किया गया है. क्वांटाइज़ेशन, उन पैरामीटर को 32 बिट से 4, 8 या 16 बिट में बदल देता है. क्वांटाइज़ेशन से ये चीज़ें कम हो जाती हैं:

    • कंप्यूट, मेमोरी, डिस्क, और नेटवर्क के इस्तेमाल से जुड़ी जानकारी
    • अनुमान लगाने में लगने वाला समय
    • ऊर्जा की खपत

    हालांकि, क्वांटाइज़ेशन की वजह से कभी-कभी मॉडल के अनुमान सही नहीं होते.

सूची

#TensorFlow

TensorFlow का एक ऑपरेशन, जो कतार के डेटा स्ट्रक्चर को लागू करता है. आम तौर पर, इसका इस्तेमाल I/O में किया जाता है.

R

RAG

#fundamentals

रिट्रीवल-ऑगमेंटेड जनरेशन का छोटा नाम.

रैंडम फ़ॉरेस्ट

#df

डिसिज़न ट्री का ग्रुप, जिसमें हर डिसिज़न ट्री को किसी खास तरह के रैंडम नॉइज़ के साथ ट्रेन किया जाता है. जैसे, बैगिंग.

रैंडम फ़ॉरेस्ट, फ़ैसला लेने वाले फ़ॉरेस्ट का एक टाइप है.

रैंडम नीति

#rl

रीइनफ़ोर्समेंट लर्निंग में, एक ऐसी नीति जो कार्रवाई को रैंडम तौर पर चुनती है.

रैंक (क्रम)

मशीन लर्निंग की समस्या में किसी क्लास की ऑर्डिनल पोज़िशन, जो क्लास को सबसे ज़्यादा से सबसे कम तक की कैटगरी में बांटती है. उदाहरण के लिए, व्यवहार के आधार पर रैंकिंग करने वाला सिस्टम, कुत्ते के इनामों को सबसे ज़्यादा (स्टीक) से लेकर सबसे कम (मुरझाए हुए केल) तक रैंक कर सकता है.

rank (Tensor)

#TensorFlow

Tensor में डाइमेंशन की संख्या. उदाहरण के लिए, स्केलर की रैंक 0 होती है, वेक्टर की रैंक 1 होती है, और मैट्रिक की रैंक 2 होती है.

इसे रैंक (क्रम) से न जोड़ें.

रैंकिंग

सुपरवाइज़्ड लर्निंग का एक टाइप, जिसका मकसद आइटम की सूची को क्रम से लगाना है.

रेटिंग देने वाला

#fundamentals

वह व्यक्ति जो उदाहरणों के लिए लेबल उपलब्ध कराता है. रेटिंग देने वाले व्यक्ति को "एनोटेट करने वाला" भी कहा जाता है.

रीकॉल

क्लासिफ़िकेशन मॉडल के लिए एक मेट्रिक, जो इस सवाल का जवाब देती है:

जब ग्राउंड ट्रूथ पॉज़िटिव क्लास था, तो मॉडल ने कितने प्रतिशत अनुमानों की सही तरीके से पहचान पॉज़िटिव क्लास के तौर पर की?

यहां फ़ॉर्मूला दिया गया है:

\[\text{Recall} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}} \]

कहां:

  • 'सही मायनों में पॉज़िटिव' का मतलब है कि मॉडल ने पॉज़िटिव क्लास का सही अनुमान लगाया.
  • फ़ॉल्स नेगेटिव का मतलब है कि मॉडल ने नेगेटिव क्लास का अनुमान गलती से लगाया है.

उदाहरण के लिए, मान लें कि आपके मॉडल ने उन उदाहरणों के लिए 200 अनुमान लगाए जिनके लिए ज़मीनी सच्चाई पॉज़िटिव क्लास थी. इन 200 अनुमानों में से:

  • इनमें से 180 ट्रू पॉज़िटिव थे.
  • 20 फ़ॉल्स निगेटिव थे.

इस मामले में:

\[\text{Recall} = \frac{\text{180}} {\text{180} + \text{20}} = 0.9 \]

ज़्यादा जानकारी के लिए, क्लासिफ़िकेशन: सटीक जानकारी, रीकॉल, सटीक जानकारी, और इससे जुड़ी मेट्रिक देखें.

k पर रीकॉल (recall@k)

#language

आइटम की रैंक वाली सूची दिखाने वाले सिस्टम का आकलन करने वाली मेट्रिक. k पर रीकॉल, सूची में मौजूद काम के आइटम की कुल संख्या में से, पहले k आइटम में मौजूद काम के आइटम के हिस्से की पहचान करता है.

\[\text{recall at k} = \frac{\text{relevant items in first k items of the list}} {\text{total number of relevant items in the list}}\]

k पर सटीक के साथ कंट्रास्ट करें.

सुझाव देने वाला सिस्टम

#recsystems

यह एक ऐसा सिस्टम है जो हर उपयोगकर्ता के लिए, बड़े कॉर्पस से, पसंदीदा आइटम का एक छोटा सेट चुनता है. उदाहरण के लिए, वीडियो के सुझाव देने वाला सिस्टम, 1,00,000 वीडियो के कॉर्पस में से दो वीडियो का सुझाव दे सकता है. जैसे, एक उपयोगकर्ता के लिए Casablanca और The Philadelphia Story और दूसरे उपयोगकर्ता के लिए Wonder Woman और Black Panther. वीडियो के सुझाव देने वाला सिस्टम, इन बातों के आधार पर सुझाव दे सकता है:

  • ऐसी फ़िल्में जिन्हें आपके जैसे उपयोगकर्ताओं ने रेटिंग दी है या देखी हैं.
  • शैली, डायरेक्टर, कलाकार, टारगेट डेमोग्राफ़िक...

रेक्टिफ़ाइड लीनियर यूनिट (ReLU)

#fundamentals

ऐसा चालू करने वाला फ़ंक्शन जिसका काम करने का तरीका यह है:

  • अगर इनपुट नेगेटिव या शून्य है, तो आउटपुट 0 होगा.
  • अगर इनपुट पॉज़िटिव है, तो आउटपुट इनपुट के बराबर होगा.

उदाहरण के लिए:

  • अगर इनपुट -3 है, तो आउटपुट 0 होगा.
  • अगर इनपुट +3 है, तो आउटपुट 3.0 होगा.

यहां ReLU का प्लॉट दिया गया है:

दो लाइनों का कार्टेशियन प्लॉट. पहली पंक्ति में, y की वैल्यू 0 है. यह वैल्यू x-ऐक्सिस पर -infinity,0 से 0,-0 तक चलती है.
          दूसरी लाइन 0,0 से शुरू होती है. इस लाइन का स्लोप +1 है, इसलिए यह 0,0 से +infinity,+infinity तक चलती है.

ReLU एक बहुत लोकप्रिय ऐक्टिवेशन फ़ंक्शन है. आसान तरीके से काम करने के बावजूद, ReLU की मदद से न्यूरल नेटवर्क, एट्रिब्यूट और लेबल के बीच नॉन-लाइनर संबंधों को सीख सकता है.

रीकर्सिव न्यूरल नेटवर्क

#seq

ऐसा न्यूरल नेटवर्क जिसे जान-बूझकर कई बार चलाया जाता है. इसमें हर रन के कुछ हिस्से, अगले रन में फ़ीड होते हैं. खास तौर पर, पिछले रन की छिपी हुई लेयर, अगले रन में उसी छिपी हुई लेयर को इनपुट का कुछ हिस्सा देती हैं. रीकरेंट न्यूरल नेटवर्क, खास तौर पर क्रम का आकलन करने के लिए काम के होते हैं. इससे, क्रम के शुरुआती हिस्सों पर न्यूरल नेटवर्क के पिछले रन से, हेडेड लेयर सीख सकती हैं.

उदाहरण के लिए, नीचे दिए गए चित्र में एक ऐसा रीकरेंट न्यूरल नेटवर्क दिखाया गया है जो चार बार चलता है. ध्यान दें कि पहले रन में, छिपी हुई लेयर में सीखी गई वैल्यू, दूसरे रन में उन ही छिपी हुई लेयर के इनपुट का हिस्सा बन जाती हैं. इसी तरह, दूसरी बार चलाने पर, छिपी हुई लेयर में सीखी गई वैल्यू, तीसरे बार चलाने पर उसी छिपी हुई लेयर के इनपुट का हिस्सा बन जाती हैं. इस तरह, बार-बार इस्तेमाल होने वाला न्यूरल नेटवर्क, धीरे-धीरे ट्रेनिंग लेता है और सिर्फ़ अलग-अलग शब्दों के बजाय पूरे क्रम का मतलब बताता है.

चार इनपुट शब्दों को प्रोसेस करने के लिए, चार बार चलने वाला आरएनएन.

रेफ़रंस टेक्स्ट

#language
#generativeAI

प्रॉम्प्ट के लिए विशेषज्ञ का जवाब. उदाहरण के लिए, यह प्रॉम्प्ट दिया गया है:

"आपका नाम क्या है?" सवाल को अंग्रेज़ी से फ़्रेंच में अनुवाद करें.

विशेषज्ञ का जवाब इस तरह का हो सकता है:

Comment vous appelez-vous?

ROUGE जैसी अलग-अलग मेट्रिक से यह पता चलता है कि रेफ़रंस टेक्स्ट, एमएल मॉडल के जनरेट किए गए टेक्स्ट से कितना मैच करता है.

रिग्रेशन मॉडल

#fundamentals

आम तौर पर, ऐसा मॉडल जो संख्या के हिसाब से अनुमान जनरेट करता है. इसके उलट, क्लासिफ़िकेशन मॉडल, क्लास का अनुमान जनरेट करता है. उदाहरण के लिए, ये सभी रेग्रेसन मॉडल हैं:

  • ऐसा मॉडल जो किसी घर की कीमत का अनुमान यूरो में लगाता है, जैसे कि 4,23,000.
  • यह एक मॉडल है, जो किसी पेड़ की उम्र का अनुमान लगाता है. जैसे, 23.2 साल.
  • यह एक ऐसा मॉडल है जो अगले छह घंटों में किसी शहर में होने वाली बारिश की मात्रा का अनुमान इंच में बताता है. जैसे, 0.18.

आम तौर पर, रेग्रेसन मॉडल दो तरह के होते हैं:

  • लीनियर रिग्रेशन, जो ऐसी लाइन ढूंढता है जो सुविधाओं के लिए लेबल वैल्यू को सबसे बेहतर तरीके से फ़िट करती है.
  • लॉजिस्टिक रिग्रेशन, जो 0.0 से 1.0 के बीच की संभावना जनरेट करता है. आम तौर पर, सिस्टम इस संभावना को किसी क्लास के अनुमान से मैप करता है.

संख्या के हिसाब से अनुमान देने वाला हर मॉडल, रिग्रेशन मॉडल नहीं होता. कुछ मामलों में, अंकों वाला अनुमान सिर्फ़ एक क्लासिफ़िकेशन मॉडल होता है, जिसमें अंकों वाली क्लास के नाम होते हैं. उदाहरण के लिए, संख्या वाले पिन कोड का अनुमान लगाने वाला मॉडल, रेग्रेसन मॉडल नहीं, बल्कि क्लासिफ़िकेशन मॉडल होता है.

रेगुलराइज़ेशन

#fundamentals

ऐसा कोई भी तरीका जो ओवरफ़िटिंग को कम करता है. नियमों का पालन करने के लिए, ये तरीके सबसे ज़्यादा इस्तेमाल किए जाते हैं:

रेगुलराइज़ेशन को मॉडल की जटिलता पर लगने वाले जुर्माने के तौर पर भी परिभाषित किया जा सकता है.

रेगुलराइज़ेशन रेट

#fundamentals

यह एक संख्या है, जो ट्रेनिंग के दौरान नियमित करने की तुलनात्मक अहमियत बताती है. रेगुलराइज़ेशन रेट बढ़ाने से, ओवरफ़िटिंग कम हो जाती है. हालांकि, इससे मॉडल की अनुमान लगाने की क्षमता कम हो सकती है. इसके उलट, रेगुलराइज़ेशन रेट को कम करने या हटाने से, ओवरफ़िटिंग बढ़ जाती है.

रीइनफ़ोर्समेंट लर्निंग (आरएल)

#rl

एल्गोरिदम का एक फ़ैमिली, जो सबसे सही नीति को सीखता है. इसका लक्ष्य, किसी एनवायरमेंट के साथ इंटरैक्ट करते समय रिटर्न को बढ़ाना होता है. उदाहरण के लिए, ज़्यादातर गेम में जीतना सबसे बड़ा इनाम होता है. रिनफ़ोर्समेंट लर्निंग सिस्टम, गेम के पिछले चरणों का आकलन करके, मुश्किल गेम खेलने में माहिर हो सकते हैं. इन चरणों में, वे गेम में जीतने और हारने के क्रम का आकलन करते हैं.

लोगों के सुझाव पर आधारित रीइन्फ़ोर्समेंट लर्निंग (आरएलएचएफ़)

#generativeAI
#rl

मॉडल के जवाबों की क्वालिटी को बेहतर बनाने के लिए, रेटिंग देने वाले लोगों के सुझाव, राय या शिकायत का इस्तेमाल करना. उदाहरण के लिए, आरएलएचएफ़ (रेवेन्यू लर्निंग फ़्रीक्वेंसी) तंत्र, उपयोगकर्ताओं से 👍 या 👎 इमोजी का इस्तेमाल करके, मॉडल के जवाब की क्वालिटी को रेटिंग देने के लिए कह सकता है. इसके बाद, सिस्टम उस सुझाव या राय के आधार पर, आने वाले समय में अपने जवाबों में बदलाव कर सकता है.

ReLU

#fundamentals

रेक्टिफ़ाइड लीनियर यूनिट का छोटा नाम.

रीप्ले बफ़र

#rl

DQN जैसे एल्गोरिदम में, एजेंट एक्सपीरियंस रीप्ले में इस्तेमाल करने के लिए, स्टेटस ट्रांज़िशन को सेव करने के लिए मेमोरी का इस्तेमाल करता है.

प्रतिरूप

ट्रेनिंग सेट या मॉडल की कॉपी, आम तौर पर किसी दूसरी मशीन पर. उदाहरण के लिए, कोई सिस्टम डेटा पैरलेललिज़्म को लागू करने के लिए, इस रणनीति का इस्तेमाल कर सकता है:

  1. किसी मौजूदा मॉडल की प्रतिकृति एक से ज़्यादा मशीनों पर रखना.
  2. हर प्रतिकृति को ट्रेनिंग सेट के अलग-अलग सबसेट भेजें.
  3. पैरामीटर के अपडेट इकट्ठा करें.

रिपोर्टिंग में पक्षपात

#fairness

यह ज़रूरी नहीं है कि लोग जितनी बार किसी ऐक्शन, नतीजे या प्रॉपर्टी के बारे में लिखते हैं उतनी ही बार वे असल ज़िंदगी में भी ऐसा करते हों. इसके अलावा, यह भी ज़रूरी नहीं है कि कोई प्रॉपर्टी किसी व्यक्ति के ग्रुप की विशेषता के तौर पर कितनी बार इस्तेमाल की गई है. रिपोर्टिंग में पक्षपात होने पर, उस डेटा के कॉम्पोज़िशन पर असर पड़ सकता है जिससे मशीन लर्निंग सिस्टम सीखते हैं.

उदाहरण के लिए, किताबों में laughed शब्द, breathed शब्द से ज़्यादा इस्तेमाल होता है. मशीन लर्निंग मॉडल, किसी किताब के कॉर्पस में हंसने और सांस लेने की फ़्रीक्वेंसी का अनुमान लगाता है. इससे यह पता चलता है कि हंसने की फ़्रीक्वेंसी, सांस लेने की फ़्रीक्वेंसी से ज़्यादा है.

प्रतिनिधित्व

डेटा को काम की सुविधाओं से मैप करने की प्रोसेस.

फिर से रैंकिंग

#recsystems

सुझाव देने वाले सिस्टम का आखिरी चरण, जिस दौरान स्कोर वाले आइटम को किसी दूसरे (आम तौर पर, नॉन-एमएल) एल्गोरिदम के हिसाब से फिर से ग्रेड किया जा सकता है. फिर से रैंकिंग करने की प्रोसेस में, स्कोरिंग फ़ेज़ से जनरेट की गई आइटम की सूची का आकलन किया जाता है. इसके लिए, ये कार्रवाइयां की जाती हैं:

  • उपयोगकर्ता ने जो आइटम पहले से खरीदे हैं उन्हें हटाना.
  • नए आइटम का स्कोर बढ़ाना.

रिट्रीवल ऑगमेंटेड जनरेशन (आरएजी)

#fundamentals

लार्ज लैंग्वेज मॉडल (एलएलएम) के आउटपुट की क्वालिटी को बेहतर बनाने की एक तकनीक. इसमें, मॉडल को ट्रेन करने के बाद, उससे हासिल किए गए ज्ञान के सोर्स का इस्तेमाल किया जाता है. आरएजी, एलएलएम को ट्रेन करके, उसे भरोसेमंद नॉलेज बेस या दस्तावेज़ों से हासिल की गई जानकारी का ऐक्सेस देता है. इससे एलएलएम के जवाबों की सटीकता बढ़ती है.

रीट्रिवल-ऑगमेंटेड जनरेशन का इस्तेमाल करने की सामान्य वजहें ये हैं:

  • मॉडल के जनरेट किए गए जवाबों को ज़्यादा सटीक बनाना.
  • मॉडल को उस जानकारी का ऐक्सेस देना जिस पर उसे ट्रेनिंग नहीं दी गई है.
  • मॉडल में मौजूद जानकारी में बदलाव करना.
  • मॉडल को सोर्स का हवाला देने की सुविधा चालू करना.

उदाहरण के लिए, मान लें कि कोई केमिस्ट्री ऐप्लिकेशन, उपयोगकर्ता की क्वेरी से जुड़ी खास जानकारी जनरेट करने के लिए, PaLM API का इस्तेमाल करता है. जब ऐप्लिकेशन के बैकएंड को कोई क्वेरी मिलती है, तो बैकएंड:

  1. उपयोगकर्ता की क्वेरी से जुड़ा डेटा खोजता है ("प्राप्त करता है").
  2. उपयोगकर्ता की क्वेरी में, काम का केमिस्ट्री डेटा जोड़ता है ("बढ़ाता है").
  3. जोड़े गए डेटा के आधार पर खास जानकारी बनाने के लिए, एलएलएम को निर्देश देता है.

रिटर्न

#rl

किसी खास नीति और किसी खास स्थिति के हिसाब से, रिनफ़ोर्समेंट लर्निंग में रिटर्न, उन सभी इनाम का कुल योग होता है जो एजेंट को नीति का पालन करते हुए, स्थिति से लेकर एपिसोड के आखिर तक मिलने की उम्मीद होती है. एजेंट, इनाम पाने के लिए ज़रूरी स्टेटस ट्रांज़िशन के हिसाब से इनाम पर छूट देकर, उम्मीद के मुताबिक इनाम मिलने में होने वाली देरी को ध्यान में रखता है.

इसलिए, अगर छूट का फ़ैक्टर \(\gamma\)है और \(r_0, \ldots, r_{N}\) एपिसोड के आखिर तक मिलने वाले इनामों को दिखाता है, तो रिटर्न का हिसाब इस तरह से लगाया जाता है:

$$\text{Return} = r_0 + \gamma r_1 + \gamma^2 r_2 + \ldots + \gamma^{N-1} r_{N-1}$$

इनाम

#rl

किसी स्थिति में कार्रवाई करने पर मिलने वाला संख्यात्मक नतीजा. इसे एनवायरमेंट तय करता है.

रिज रेगुलराइज़ेशन

L2 रेगुलराइज़ेशन का समानार्थी शब्द. रिडग रेगुलराइज़ेशन शब्द का इस्तेमाल, अक्सर आंकड़ों के संदर्भ में किया जाता है. वहीं, L2 रेगुलराइज़ेशन का इस्तेमाल, मशीन लर्निंग में ज़्यादा किया जाता है.

RNN

#seq

रीकurrent न्यूरल नेटवर्क का छोटा नाम.

आरओसी (रिसीवर ऑपरेटिंग चैरेक्टरिस्टिक) कर्व

#fundamentals

बाइनरी क्लासिफ़िकेशन में, अलग-अलग क्लासिफ़िकेशन थ्रेशोल्ड के लिए, ट्रू पॉज़िटिव रेट बनाम फ़ॉल्स पॉज़िटिव रेट का ग्राफ़.

आरओसी कर्व के आकार से पता चलता है कि बाइनरी क्लासिफ़िकेशन मॉडल, पॉज़िटिव क्लास को नेगेटिव क्लास से अलग करने में कितना कारगर है. उदाहरण के लिए, मान लें कि कोई बाइनरी क्लासिफ़िकेशन मॉडल, सभी नेगेटिव क्लास को सभी पॉज़िटिव क्लास से पूरी तरह से अलग करता है:

दाईं ओर आठ पॉज़िटिव उदाहरण और बाईं ओर सात नेगेटिव उदाहरण वाली नंबर लाइन.

पिछले मॉडल का आरओसी कर्व कुछ ऐसा दिखता है:

आरओसी कर्व. x-ऐक्सिस पर फ़ॉल्स पॉज़िटिव रेट और y-ऐक्सिस पर
          ट्रू पॉज़िटिव रेट होता है. कर्व का आकार, उलटा L जैसा है. कर्व (0.0,0.0) से शुरू होता है और सीधे (0.0,1.0) तक जाता है. इसके बाद, कर्व (0.0,1.0) से (1.0,1.0) पर पहुंच जाता है.

इसके उलट, नीचे दिए गए इलस्ट्रेशन में एक खराब मॉडल के लिए, लॉजिस्टिक रिग्रेशन की रॉ वैल्यू का ग्राफ़ दिखाया गया है. यह मॉडल, नेगेटिव क्लास को पॉज़िटिव क्लास से अलग नहीं कर सकता:

पॉज़िटिव उदाहरणों और नेगेटिव क्लास के साथ एक संख्या रेखा, जिसमें दोनों पूरी तरह से एक-दूसरे में शामिल हैं.

इस मॉडल के लिए आरओसी कर्व इस तरह दिखता है:

आरओसी कर्व, जो असल में (0.0,0.0) से (1.0,1.0) तक की सीधी रेखा होती है.

वहीं, असल दुनिया में, ज़्यादातर बाइनरी क्लासिफ़िकेशन मॉडल, सकारात्मक और नकारात्मक कैटगरी को कुछ हद तक अलग करते हैं. हालांकि, आम तौर पर ऐसा पूरी तरह से नहीं होता. इसलिए, एक सामान्य आरओसी कर्व, इन दोनों चरम स्थितियों के बीच कहीं आता है:

आरओसी कर्व. x-ऐक्सिस पर फ़ॉल्स पॉज़िटिव रेट और y-ऐक्सिस पर
          ट्रू पॉज़िटिव रेट होता है. आरओसी कर्व, कंपास के पॉइंट को पश्चिम से उत्तर तक ले जाने वाले, एक अस्थिर आर्क के आस-पास होता है.

आरओसी कर्व पर (0.0,1.0) के सबसे नज़दीक मौजूद पॉइंट से, सैद्धांतिक तौर पर, कैटगरी तय करने के लिए सबसे सही थ्रेशोल्ड का पता चलता है. हालांकि, असल दुनिया की कई अन्य समस्याएं, क्लासिफ़िकेशन के लिए सही थ्रेशोल्ड चुनने पर असर डालती हैं. उदाहरण के लिए, शायद गलत नतीजे मिलने से, गलत तरीके से सही नतीजे मिलने से ज़्यादा दर्द होता है.

AUC नाम की अंकों वाली मेट्रिक, आरओसी कर्व को एक फ़्लोटिंग-पॉइंट वैल्यू में बताती है.

भूमिका के लिए निर्देश

#language
#generativeAI

प्रॉम्प्ट का एक वैकल्पिक हिस्सा, जो जनरेटिव एआई मॉडल के जवाब के लिए टारगेट ऑडियंस की पहचान करता है. भूमिका के प्रॉम्प्ट बिना, लार्ज लैंग्वेज मॉडल ऐसा जवाब देता है जो सवाल पूछने वाले व्यक्ति के लिए मददगार हो सकता है या नहीं. भूमिका के हिसाब से प्रॉम्प्ट की मदद से, लार्ज लैंग्वेज मॉडल किसी खास टारगेट ऑडियंस के लिए ज़्यादा सही और मददगार जवाब दे सकता है. उदाहरण के लिए, यहां दिए गए प्रॉम्प्ट में भूमिका से जुड़ा प्रॉम्प्ट, बोल्ड फ़ॉन्ट में है:

  • इकोनॉमिक्स में पीएचडी के लिए, इस लेख का खास हिस्सा बताएं.
  • दस साल के बच्चे के लिए बताएं कि ज्वार कैसे काम करते हैं.
  • साल 2008 के वित्तीय संकट के बारे में बताएं. जैसे किसी छोटे बच्चे या गोल्डन रिट्रीवर से बात की जाती है वैसे ही बोलें.

रूट

#df

डिसिज़न ट्री में, शुरुआती नोड (पहली शर्त). आम तौर पर, डायग्राम में रूट को डिसीज़न ट्री में सबसे ऊपर रखा जाता है. उदाहरण के लिए:

दो शर्तों और तीन लीफ़ वाला डिसीज़न ट्री. शुरू की गई शर्त (x > 2) रूट है.

रूट डायरेक्ट्री

#TensorFlow

यह वह डायरेक्ट्री होती है जिसे आपने TensorFlow के चेकपॉइंट की सब-डायरेक्ट्री और एक से ज़्यादा मॉडल की इवेंट फ़ाइलों को होस्ट करने के लिए तय किया है.

रूट मीन स्क्वेयर्ड एरर (RMSE)

#fundamentals

मीन स्क्वेयर्ड एरर का वर्गमूल.

रोटेशन इनवैरिएंस

#image

इमेज को अलग-अलग कैटगरी में बांटने की समस्या में, एल्गोरिदम की यह क्षमता कि वह इमेज के ओरिएंटेशन में बदलाव होने पर भी, इमेज को अलग-अलग कैटगरी में बांट सके. उदाहरण के लिए, एल्गोरिदम अब भी टेनिस रैकेट की पहचान कर सकता है, भले ही वह ऊपर, बगल में या नीचे की ओर हो. ध्यान दें कि रोटेशन इनवैरिएंस हमेशा काम का नहीं होता; उदाहरण के लिए, उलटे 9 को 9 के तौर पर नहीं माना जाना चाहिए.

ट्रांसलेशनल इनवैरिएंस और साइज़ इनवैरिएंस भी देखें.

आरओयूजीई (गिसटिंग इवैलुएशन के लिए रीकॉल-ओरिएंटेड अंडरस्टडी)

#language

मेट्रिक का एक फ़ैमिली, जो अपने-आप खास जानकारी देने और मशीन से अनुवाद करने वाले मॉडल का आकलन करता है. ROUGE मेट्रिक से यह पता चलता है कि रेफ़रंस टेक्स्ट, एमएल मॉडल के जनरेट किए गए टेक्स्ट से कितना ओवरलैप होता है. ROUGE परिवार के हर सदस्य के मेज़रमेंट अलग-अलग तरीके से ओवरलैप होते हैं. ROUGE के ज़्यादा स्कोर से पता चलता है कि रेफ़रंस टेक्स्ट और जनरेट किए गए टेक्स्ट के बीच, कम स्कोर के मुकाबले ज़्यादा समानता है.

आम तौर पर, ROUGE परिवार का हर सदस्य ये मेट्रिक जनरेट करता है:

  • स्पष्टता
  • रीकॉल
  • F1

ज़्यादा जानकारी और उदाहरणों के लिए, यहां जाएं:

ROUGE-L

#language

ROUGE फ़ैमिली का एक सदस्य, जो रेफ़रंस टेक्स्ट और जनरेट किए गए टेक्स्ट में, सबसे लंबे कॉमन सबसिक्वेंस की लंबाई पर फ़ोकस करता है. नीचे दिए गए फ़ॉर्मूले, ROUGE-L के लिए रीकॉल और सटीकता का हिसाब लगाते हैं:

$$\text{ROUGE-L recall} = \frac{\text{longest common sequence}} {\text{number of words in the reference text} }$$
$$\text{ROUGE-L precision} = \frac{\text{longest common sequence}} {\text{number of words in the generated text} }$$

इसके बाद, F1 का इस्तेमाल करके, ROUGE-L रिकॉल और ROUGE-L प्रिसिज़न को एक ही मेट्रिक में रोल अप किया जा सकता है:

$$\text{ROUGE-L F} {_1} = \frac{\text{2} * \text{ROUGE-L recall} * \text{ROUGE-L precision}} {\text{ROUGE-L recall} + \text{ROUGE-L precision} }$$

ROUGE-L, रेफ़रंस टेक्स्ट और जनरेट किए गए टेक्स्ट में मौजूद किसी भी नई लाइन को अनदेखा करता है. इसलिए, सबसे लंबा कॉमन सबसीक्वेंस एक से ज़्यादा वाक्यों में हो सकता है. जब रेफ़रंस टेक्स्ट और जनरेट किए गए टेक्स्ट में कई वाक्य होते हैं, तो आम तौर पर ROUGE-Lsum नाम का ROUGE-L का वैरिएशन एक बेहतर मेट्रिक होती है. ROUGE-Lsum, किसी पैसेज में मौजूद हर वाक्य के लिए सबसे लंबा सामान्य सबसिक्वेंस तय करता है. इसके बाद, उन सबसे लंबे सामान्य सबसिक्वेंस का औसत निकालता है.

ROUGE-N

#language

ROUGE फ़ैमिली में मौजूद मेट्रिक का एक सेट, जो रेफ़रंस टेक्स्ट और जनरेट किए गए टेक्स्ट में, किसी खास साइज़ के शेयर किए गए N-gram की तुलना करता है. उदाहरण के लिए:

  • ROUGE-1, रेफ़रंस टेक्स्ट और जनरेट किए गए टेक्स्ट में शेयर किए गए टोकन की संख्या को मेज़र करता है.
  • ROUGE-2, रेफ़रंस टेक्स्ट और जनरेट किए गए टेक्स्ट में, शेयर किए गए बिग्राम (2-ग्राम) की संख्या को मेज़र करता है.
  • ROUGE-3, रेफ़रंस टेक्स्ट और जनरेट किए गए टेक्स्ट में, शेयर किए गए ट्राइग्राम (3-ग्राम) की संख्या का आकलन करता है.

ROUGE-N फ़ैमिली के किसी भी सदस्य के लिए, ROUGE-N रीकॉल और ROUGE-N प्रिसिज़न का हिसाब लगाने के लिए, नीचे दिए गए फ़ॉर्मूले का इस्तेमाल किया जा सकता है:

$$\text{ROUGE-N recall} = \frac{\text{number of matching N-grams}} {\text{number of N-grams in the reference text} }$$
$$\text{ROUGE-N precision} = \frac{\text{number of matching N-grams}} {\text{number of N-grams in the generated text} }$$

इसके बाद, F1 का इस्तेमाल करके, ROUGE-N रिकॉल और ROUGE-N प्रिसीज़न को एक ही मेट्रिक में रोल अप किया जा सकता है:

$$\text{ROUGE-N F}{_1} = \frac{\text{2} * \text{ROUGE-N recall} * \text{ROUGE-N precision}} {\text{ROUGE-N recall} + \text{ROUGE-N precision} }$$

ROUGE-S

#language

ROUGE-N का एक ऐसा वर्शन जिसमें स्किप-ग्राम मैचिंग की सुविधा होती है. इसका मतलब है कि ROUGE-N सिर्फ़ उन N-ग्राम की गिनती करता है जो एग्ज़ैक्ट मैच करते हैं. हालांकि, ROUGE-S उन N-ग्राम की भी गिनती करता है जो एक या उससे ज़्यादा शब्दों से अलग होते हैं. उदाहरण के लिए, आप नीचे दिया गया तरीका अपना सकते हैं:

ROUGE-N का हिसाब लगाते समय, दो ग्राम वाला सफ़ेद बादल, सफ़ेद बादल से मेल नहीं खाता. हालांकि, ROUGE-S का हिसाब लगाते समय, सफ़ेद बादल और सफ़ेद बादल एक-दूसरे से मेल खाते हैं.

R-squared

रिग्रेशन मेट्रिक, यह बताती है कि किसी लेबल में, किसी एक फ़ीचर या फ़ीचर सेट की वजह से कितना बदलाव हुआ है. आर-स्क्वेयर, 0 और 1 के बीच की वैल्यू होती है. इसका मतलब इस तरह समझा जा सकता है:

  • R-स्क्वेयर के 0 होने का मतलब है कि किसी लेबल का कोई भी वैरिएशन, फ़ीचर सेट की वजह से नहीं है.
  • R-स्क्वेयर के 1 होने का मतलब है कि किसी लेबल का सारा वैरिएशन, फ़ीचर सेट की वजह से है.
  • 0 से 1 के बीच का आर-स्क्वेयर यह दिखाता है कि किसी खास सुविधा या सुविधाओं के सेट से, लेबल के वैरिएशन का अनुमान किस हद तक लगाया जा सकता है. उदाहरण के लिए, R-स्क्वेयर के 0.10 होने का मतलब है कि लेबल में वैरिएंस का 10 प्रतिशत, फ़ीचर सेट की वजह से है. R-स्क्वेयर के 0.20 होने का मतलब है कि 20 प्रतिशत, फ़ीचर सेट की वजह से है.

आर-स्क्वेयर, मॉडल की अनुमानित वैल्यू और ग्राउंड ट्रूथ के बीच के पियरसन कॉर्रेलेशन कोएफ़िशिएंट का स्क्वेयर होता है.

S

सैंपलिंग बायस

#fairness

चुनी गई वैल्यू में बायस देखें.

रिप्लेसमेंट की मदद से सैंपलिंग

#df

संभावित आइटम के सेट से आइटम चुनने का एक तरीका, जिसमें एक ही आइटम को कई बार चुना जा सकता है. "बदले में" वाक्यांश का मतलब है कि हर चुने गए आइटम के बाद, चुना गया आइटम, संभावित आइटम के पूल में वापस आ जाता है. इसके उलट, रिप्लेसमेंट के बिना सैंपलिंग का मतलब है कि किसी आइटम को सिर्फ़ एक बार चुना जा सकता है.

उदाहरण के लिए, फलों के इस सेट पर ध्यान दें:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

मान लें कि सिस्टम, पहले आइटम के तौर पर fig को रैंडम तौर पर चुनता है. अगर सैंपलिंग के साथ बदलाव का इस्तेमाल किया जा रहा है, तो सिस्टम इस सेट से दूसरा आइटम चुनता है:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

हां, यह वही सेट है जो पहले था. इसलिए, सिस्टम fig को फिर से चुन सकता है.

अगर सैंपलिंग के लिए, रिप्लेसमेंट का इस्तेमाल नहीं किया जा रहा है, तो सैंपल चुनने के बाद, उसे फिर से नहीं चुना जा सकता. उदाहरण के लिए, अगर सिस्टम पहले सैंपल के तौर पर fig को रैंडम तौर पर चुनता है, तो fig को फिर से नहीं चुना जा सकता. इसलिए, सिस्टम यहां दिए गए (कम किए गए) सेट से दूसरा सैंपल चुनता है:

fruit = {kiwi, apple, pear, cherry, lime, mango}

सेव मॉडल

#TensorFlow

TensorFlow मॉडल को सेव और वापस लाने के लिए सुझाया गया फ़ॉर्मैट. SavedModel, भाषा के हिसाब से काम करने वाला और रिकवर किया जा सकने वाला सीरियलाइज़ेशन फ़ॉर्मैट है. इससे, बेहतर लेवल के सिस्टम और टूल, TensorFlow मॉडल बना सकते हैं, उनका इस्तेमाल कर सकते हैं, और उन्हें बदल सकते हैं.

पूरी जानकारी के लिए, TensorFlow प्रोग्रामर गाइड का सेव और वापस लाने वाला सेक्शन देखें.

सेवर

#TensorFlow

मॉडल के चेकपॉइंट सेव करने के लिए ज़िम्मेदार TensorFlow ऑब्जेक्ट.

स्केलर

एक संख्या या एक स्ट्रिंग, जिसे रैंक 0 के टेंसर के तौर पर दिखाया जा सकता है. उदाहरण के लिए, कोड की ये पंक्तियां, TensorFlow में एक स्केलर बनाती हैं:

breed = tf.Variable("poodle", tf.string)
temperature = tf.Variable(27, tf.int16)
precision = tf.Variable(0.982375101275, tf.float64)

स्केलिंग

गणितीय ट्रांसफ़ॉर्म या ऐसी तकनीक जो लेबल और/या सुविधा की वैल्यू की रेंज बदलती है. स्केलिंग के कुछ फ़ॉर्म, नॉर्मलाइज़ेशन जैसे ट्रांसफ़ॉर्मेशन के लिए काफ़ी काम के होते हैं.

मशीन लर्निंग में काम आने वाले स्केलिंग के सामान्य तरीकों में ये शामिल हैं:

  • लीनियर स्केलिंग, जो आम तौर पर घटाने और تقسیم करने के कॉम्बिनेशन का इस्तेमाल करके, ओरिजनल वैल्यू को -1 और +1 या 0 और 1 के बीच की संख्या से बदलती है.
  • लॉगारिदमिक स्केलिंग, जो ओरिजनल वैल्यू को उसके लॉगारिद्म से बदल देती है.
  • Z-स्कोर नॉर्मलाइज़ेशन, जो मूल वैल्यू को फ़्लोटिंग-पॉइंट वैल्यू से बदल देता है. यह वैल्यू, उस सुविधा के औसत से स्टैंडर्ड डेविएशन की संख्या दिखाती है.

scikit-learn

मशीन लर्निंग का एक लोकप्रिय ओपन-सोर्स प्लैटफ़ॉर्म. scikit-learn.org देखें.

स्कोरिंग

#recsystems

सुझाव देने वाले सिस्टम का वह हिस्सा जो कैन्डिडेट जनरेशन फ़ेज़ से तैयार किए गए हर आइटम के लिए वैल्यू या रैंकिंग देता है.

चुनने में पक्षपात

#fairness

सैंपल किए गए डेटा से निकाले गए नतीजों में गड़बड़ियां. ऐसा, डेटा में मौजूद सैंपल और उन सैंपल के बीच व्यवस्थित अंतर पैदा करने वाली चुनने की प्रोसेस की वजह से होता है. चुनिंदा नमूने के लिए ये गड़बड़ियां हो सकती हैं:

  • कवरेज में पक्षपात: डेटासेट में दी गई जनसंख्या, उस जनसंख्या से मेल नहीं खाती जिसके लिए मशीन लर्निंग मॉडल, अनुमान लगा रहा है.
  • सैंपलिंग में गड़बड़ी: टारगेट ग्रुप से डेटा को रैंडम तरीके से इकट्ठा नहीं किया जाता.
  • नॉन-रिस्पॉन्स बायस (इसे पार्टिसिपेशन बायस भी कहा जाता है): कुछ ग्रुप के उपयोगकर्ता, सर्वे से ऑप्ट-आउट करने की दर, दूसरे ग्रुप के उपयोगकर्ताओं की तुलना में अलग होती है.

उदाहरण के लिए, मान लें कि आपने एक मशीन लर्निंग मॉडल बनाया है, जो लोगों के मनोरंजन के लिए फ़िल्म चुनने में मदद करता है. ट्रेनिंग डेटा इकट्ठा करने के लिए, सिनेमा में फ़िल्म देखने के लिए आई हर उस व्यक्ति को सर्वे दिया जाता है जो थिएटर की सबसे आगे वाली सीट पर बैठा हो. ऐसा लग सकता है कि डेटासेट इकट्ठा करने का यह एक सही तरीका है. हालांकि, डेटा इकट्ठा करने के इस तरीके से, चुनिंदा डेटा के लिए ये गड़बड़ियां हो सकती हैं:

  • कवरेज में पक्षपात: फ़िल्म देखने के लिए चुने गए लोगों के सैंपल से, हो सकता है कि आपके मॉडल के अनुमान उन लोगों के लिए सही न हों जिन्होंने पहले से फ़िल्म में इतनी दिलचस्पी नहीं दिखाई थी.
  • सैंपलिंग में पक्षपात: आपने रैंडम सैंपलिंग के बजाय, सिर्फ़ उन लोगों का सैंपल लिया है जो फ़िल्म देखने के लिए सबसे आगे की पंक्ति में बैठे थे. ऐसा हो सकता है कि आगे की पंक्ति में बैठे लोगों की दिलचस्पी, दूसरी पंक्तियों में बैठे लोगों की तुलना में फ़िल्म में ज़्यादा हो.
  • नॉन-रिस्पॉन्स बायस: आम तौर पर, जिन लोगों की राय ज़्यादा ज़ोरदार होती है वे वैकल्पिक सर्वे में ज़्यादा बार जवाब देते हैं. फ़िल्म के बारे में सर्वे करना ज़रूरी नहीं है. इसलिए, जवाबों के सामान्य (बेल-आकार) डिस्ट्रिब्यूशन के मुकाबले, बाइमोडल डिस्ट्रिब्यूशन होने की संभावना ज़्यादा होती है.

सेल्फ़-अटेंशन (इसे सेल्फ़-अटेंशन लेयर भी कहा जाता है)

#language

एक न्यूरल नेटवर्क लेयर, जो एम्बेडिंग के क्रम (उदाहरण के लिए, टोकन एम्बेडिंग) को एम्बेडिंग के दूसरे क्रम में बदल देती है. आउटपुट क्रम में मौजूद हर एम्बेडिंग को, ध्यान वाले तरीके से इनपुट क्रम के एलिमेंट की जानकारी को इंटिग्रेट करके बनाया जाता है.

सेल्फ़-अटेन्शन के सेल्फ़ हिस्से का मतलब, किसी दूसरे कॉन्टेक्स्ट के बजाय, खुद पर ध्यान देने वाले क्रम से है. सेल्फ़-अटेन्शन, Transformers के मुख्य बिल्डिंग ब्लॉक में से एक है. यह "क्वेरी", "की", और "वैल्यू" जैसी डिक्शनरी लुकअप टर्म का इस्तेमाल करता है.

सेल्फ़-अटेंशन लेयर, इनपुट रिप्रज़ेंटेशन के क्रम से शुरू होती है. हर शब्द के लिए एक रिप्रज़ेंटेशन होता है. किसी शब्द के लिए इनपुट का प्रतिनिधित्व, एक आसान एम्बेडिंग हो सकता है. किसी इनपुट क्रम में मौजूद हर शब्द के लिए, नेटवर्क, शब्दों के पूरे क्रम में मौजूद हर एलिमेंट के लिए, शब्द के काम के होने का स्कोर तय करता है. काम के होने के आधार पर मिलने वाले स्कोर से यह तय होता है कि शब्द के आखिरी वर्शन में, दूसरे शब्दों के वर्शन कितने शामिल हैं.

उदाहरण के लिए, नीचे दिया गया वाक्य देखें:

जानवर बहुत थक गया था, इसलिए वह सड़क पार नहीं कर पाया.

यहां दी गई इमेज (Transformer: A Novel Neural Network Architecture for Language Understanding से ली गई है) में, सर्वनाम it के लिए, सेल्फ़-अटेन्शन लेयर का अटेन्शन पैटर्न दिखाया गया है. हर लाइन के गहरे रंग से पता चलता है कि हर शब्द, प्रॉडक्ट के बारे में बताने में कितना योगदान देता है:

यह वाक्य दो बार दिखता है: जानवर बहुत थक गया था, इसलिए वह सड़क पर नहीं गया. लाइनें, एक वाक्य में सर्वनाम it को दूसरे वाक्य के पांच टोकन (The, animal, street, it, और
          the period) से जोड़ती हैं.  सर्वनाम it और जानवर शब्द के बीच का फ़र्क़ सबसे ज़्यादा है.

सेल्फ़-अटेन्शन लेयर, "it" से जुड़े शब्दों को हाइलाइट करती है. इस मामले में, ऐटेंशन लेयर ने उन शब्दों को हाइलाइट करना सीख लिया है जिनका यह इस्तेमाल कर सकती है. साथ ही, जानवर को सबसे ज़्यादा अहमियत दी गई है.

n टोकन के सीक्वेंस के लिए, सेल्फ़-अटेंशन एल्गोरिदम, एम्बेड के सीक्वेंस को n अलग-अलग बार बदलता है. यह बदलाव, सीक्वेंस में हर पोज़िशन पर एक बार होता है.

ध्यान और मल्टी-हेड सेल्फ़-अटेंशन के बारे में भी पढ़ें.

सेल्फ़-सुपरवाइज़्ड लर्निंग

अनसुपरवाइज़्ड मशीन लर्निंग की समस्या को सुपरवाइज़्ड मशीन लर्निंग की समस्या में बदलने के लिए, तकनीकों का एक परिवार. इसके लिए, लेबल नहीं किए गए उदाहरणों से, लेबल बनाए जाते हैं.

BERT जैसे कुछ Transformer-आधारित मॉडल, खुद से निगरानी करने वाली लर्निंग का इस्तेमाल करते हैं.

सेल्फ़-सुपरवाइज़्ड ट्रेनिंग, सेमी-सुपरवाइज़्ड लर्निंग का एक तरीका है.

खुद को ट्रेनिंग देना

सेल्फ़-सुपरवाइज़्ड लर्निंग का एक वैरिएंट, जो खास तौर पर तब मददगार होता है, जब ये सभी शर्तें पूरी होती हैं:

मॉडल को खुद ट्रेनिंग देने की सुविधा, इन दो चरणों को तब तक दोहराती है, जब तक मॉडल की परफ़ॉर्मेंस बेहतर नहीं हो जाती:

  1. लेबल किए गए उदाहरणों पर मॉडल को ट्रेन करने के लिए, सुपरवाइज़्ड मशीन लर्निंग का इस्तेमाल करें.
  2. पहले चरण में बनाए गए मॉडल का इस्तेमाल करके, लेबल न किए गए उदाहरणों के लिए अनुमान (लेबल) जनरेट करें. साथ ही, जिन उदाहरणों के लिए ज़्यादा भरोसा है उन्हें अनुमानित लेबल के साथ लेबल किए गए उदाहरणों में ले जाएं.

ध्यान दें कि दूसरे चरण के हर दोहराव में, पहले चरण के लिए लेबल किए गए ज़्यादा उदाहरण जोड़े जाते हैं, ताकि मशीन लर्निंग मॉडल को ट्रेन किया जा सके.

सेमी-सुपरवाइज़्ड लर्निंग

ऐसे डेटा पर मॉडल को ट्रेनिंग देना जिसमें ट्रेनिंग के कुछ उदाहरणों के लेबल हैं, लेकिन कुछ के नहीं. सेमी-सुपरवाइज़्ड लर्निंग की एक तकनीक यह है कि बिना लेबल वाले उदाहरणों के लिए लेबल का अनुमान लगाया जाए. इसके बाद, नया मॉडल बनाने के लिए, अनुमानित लेबल पर ट्रेनिंग दी जाए. सेमी-सुपरवाइज़्ड लर्निंग तब फ़ायदेमंद हो सकती है, जब लेबल पाने की कीमत ज़्यादा हो, लेकिन बिना लेबल वाले उदाहरणों की संख्या ज़्यादा हो.

सेल्फ़-ट्रेनिंग, सेमी-सुपरवाइज़्ड लर्निंग की एक तकनीक है.

संवेदनशील एट्रिब्यूट

#fairness
यह एक ऐसा एट्रिब्यूट है जिसे कानूनी, नैतिक, सामाजिक या निजी वजहों से खास तौर पर ध्यान में रखा जा सकता है.

भावनाओं का विश्लेषण

#language

किसी सेवा, प्रॉडक्ट, संगठन या विषय के लिए, किसी ग्रुप के ज़्यादातर लोगों के सकारात्मक या नेगेटिव नज़रिए का पता लगाने के लिए, आंकड़ों या मशीन लर्निंग एल्गोरिदम का इस्तेमाल करना. उदाहरण के लिए, नैचुरल लैंग्वेज यूंडरस्टैंडिंग का इस्तेमाल करके, एल्गोरिदम किसी यूनिवर्सिटी कोर्स के टेक्स्ट वाले सुझावों या राय पर सेंटिमेंट का विश्लेषण कर सकता है. इससे यह पता चलता है कि आम तौर पर, छात्र-छात्राओं को कोर्स कितना पसंद आया या नापसंद आया.

सीक्वेंसी मॉडल

#seq

ऐसा मॉडल जिसका इनपुट क्रम से जुड़ा हो. उदाहरण के लिए, पहले देखे गए वीडियो के क्रम के आधार पर, अगला वीडियो देखने का अनुमान लगाना.

सीक्वेंस-टू-सीक्वेंस टास्क

#language

यह एक ऐसा टास्क है जो टोकन के इनपुट क्रम को टोकन के आउटपुट क्रम में बदलता है. उदाहरण के लिए, सीक्वेंस-टू-सीक्वेंस के दो लोकप्रिय टास्क ये हैं:

  • अनुवादक:
    • इनपुट क्रम का सैंपल: "मुझे आपसे प्यार है."
    • आउटपुट के क्रम का सैंपल: "Je t'aime."
  • सवालों के जवाब देना:
    • इनपुट क्रम का सैंपल: "क्या मुझे न्यूयॉर्क सिटी में अपनी कार की ज़रूरत है?"
    • आउटपुट के क्रम का सैंपल: "नहीं. कृपया अपनी कार घर पर ही रखें."

व्यक्ति खा सकता है

ऑनलाइन अनुमान या ऑफ़लाइन अनुमान के ज़रिए अनुमान देने के लिए, ट्रेन किए गए मॉडल को उपलब्ध कराने की प्रोसेस.

shape (Tensor)

टेंसर के हर डाइमेंशन में एलिमेंट की संख्या. आकार को पूर्ण संख्याओं की सूची के तौर पर दिखाया जाता है. उदाहरण के लिए, यहां दिए गए दो डाइमेंशन वाले टेंसर का शेप [3,4] है:

[[5, 7, 6, 4],
 [2, 9, 4, 8],
 [3, 6, 5, 1]]

TensorFlow, डाइमेंशन के क्रम को दिखाने के लिए, पंक्ति-मुख्य (C-स्टाइल) फ़ॉर्मैट का इस्तेमाल करता है. इसलिए, TensorFlow में आकार [4,3] के बजाय [3,4] होता है. दूसरे शब्दों में, दो-आयामी TensorFlow टेंसर में, आकार [लाइनों की संख्या, कॉलम की संख्या] होता है.

स्टैटिक शेप, टेंसर का ऐसा शेप होता है जो कंपाइल करने के समय पहचाना जा सकता है.

डाइनैमिक शेप को कंपाइल करने के समय पहचाना नहीं जा सकता. इसलिए, यह रनटाइम डेटा पर निर्भर करता है. इस टेंसर को TensorFlow में, [3, ?] की तरह प्लेसहोल्डर डाइमेंशन के साथ दिखाया जा सकता है.

शर्ड

#TensorFlow
#GoogleCloud

ट्रेनिंग सेट या मॉडल का लॉजिकल डिवीज़न. आम तौर पर, कुछ प्रोसेस उदाहरणों या पैरामीटर को बराबर साइज़ के हिस्सों में बांटकर, शर्ड बनाती हैं. इसके बाद, हर शर्ड को किसी अलग मशीन को असाइन किया जाता है.

मॉडल को अलग-अलग हिस्सों में बांटने को मॉडल पैरलेलिज्म कहा जाता है; डेटा को अलग-अलग हिस्सों में बांटने को डेटा पैरलेलिज्म कहा जाता है.

शंकी

#df

ग्रेडिएंट बूसटिंग में ऐसा हाइपर पैरामीटर जो ओवरफ़िटिंग को कंट्रोल करता है. ग्रेडिएंट बूसटिंग में घटाव, ग्रेडिएंट डिसेंट में लर्निंग रेट जैसा ही है. सिकुड़ने की दर, दशमलव वाली वैल्यू होती है. यह 0.0 से 1.0 के बीच होती है. छोटी शंकुरण वैल्यू, बड़ी शंकुरण वैल्यू की तुलना में, ज़्यादा ओवरफ़िटिंग को कम करती है.

सिगमॉइड फ़ंक्शन

#fundamentals

गणित का एक फ़ंक्शन, जो इनपुट वैल्यू को तय सीमा वाली रेंज में "डालता" है. आम तौर पर, यह रेंज 0 से 1 या -1 से +1 होती है. इसका मतलब है कि सिग्मॉइड फ़ंक्शन में कोई भी संख्या (दो, एक लाख, नेगेटिव अरब वगैरह) डाली जा सकती है और आउटपुट अब भी तय सीमा में रहेगा. सिग्मॉइड ऐक्टिवेशन फ़ंक्शन का प्लॉट ऐसा दिखता है:

दो डाइमेंशन वाला कर्व प्लॉट, जिसमें x वैल्यू का डोमेन -इनफ़िनिटी से लेकर +पॉज़िटिव तक है. वहीं, y वैल्यू की रेंज करीब 0 से लेकर करीब 1 तक है. जब x 0 है, तो y 0.5 है. कर्व का ढलान हमेशा
          सकारात्मक होता है. 0, 0.5 पर सबसे ज़्यादा ढलान होता है और x की वैल्यू बढ़ने पर,ढलान धीरे-धीरे कम होता जाता है.

मशीन लर्निंग में सिगमॉइड फ़ंक्शन का इस्तेमाल कई कामों के लिए किया जाता है. जैसे:

मिलते-जुलते कॉन्टेंट का पता लगाने के लिए मेज़र

#clustering

क्लस्टरिंग एल्गोरिदम में, इस मेट्रिक का इस्तेमाल करके यह तय किया जाता है कि दो उदाहरण कितने मिलते-जुलते हैं.

एक प्रोग्राम / कई डेटा (एसपीएमडी)

पैरलल प्रोसेसिंग की एक तकनीक, जिसमें एक ही कैलकुलेशन को अलग-अलग डिवाइसों पर, अलग-अलग इनपुट डेटा पर एक साथ चलाया जाता है. एसपीएमडी का लक्ष्य, ज़्यादा तेज़ी से नतीजे पाना है. यह पैरलल प्रोग्रामिंग का सबसे सामान्य तरीका है.

साइज़ में बदलाव न होना

#image

इमेज को अलग-अलग कैटगरी में बांटने से जुड़ी समस्या में, एल्गोरिदम की यह क्षमता कि वह इमेज के साइज़ में बदलाव होने के बावजूद, इमेज को अलग-अलग कैटगरी में बांट सके. उदाहरण के लिए, एल्गोरिदम अब भी बिल्ली की पहचान कर सकता है, भले ही उसमें 20 लाख पिक्सल या 2 लाख पिक्सल का इस्तेमाल किया गया हो. ध्यान दें कि इमेज को अलग-अलग कैटगरी में बांटने वाले सबसे अच्छे एल्गोरिदम के लिए भी, साइज़ में बदलाव होने पर इमेज की पहचान करने की सुविधा काम नहीं करती. उदाहरण के लिए, किसी ऐल्गोरिदम (या इंसान) के लिए, सिर्फ़ 20 पिक्सल वाली बिल्ली की इमेज को सही तरीके से कैटगरी में बांटना मुश्किल है.

ट्रांसलेशनल इनवैरिएंस और रोटेशनल इनवैरिएंस भी देखें.

स्केच करना

#clustering

बिना निगरानी वाली मशीन लर्निंग में, एल्गोरिदम की एक कैटगरी होती है. यह कैटगरी, उदाहरणों के आधार पर मिलती-जुलती चीज़ों का शुरुआती विश्लेषण करती है. स्केचिंग एल्गोरिदम, एक जैसे होने की संभावना वाले पॉइंट की पहचान करने के लिए, लोकलिटी-सेंसिटिव हैश फ़ंक्शन का इस्तेमाल करते हैं. इसके बाद, उन्हें बकेट में बांटते हैं.

स्केचिंग की मदद से, बड़े डेटासेट में मिलती-जुलती चीज़ों का हिसाब लगाने के लिए, कम कैलकुलेशन की ज़रूरत होती है. हम डेटासेट में मौजूद हर उदाहरण के हर जोड़े के लिए, मिलती-जुलती चीज़ों का हिसाब लगाने के बजाय, हर बकेट में मौजूद हर पॉइंट के जोड़े के लिए ही मिलती-जुलती चीज़ों का हिसाब लगाते हैं.

स्किप-ग्राम

#language

ऐसा एन-ग्राम जो ओरिजनल कॉन्टेक्स्ट से शब्दों को हटा सकता है या "स्किप" कर सकता है. इसका मतलब है कि हो सकता है कि एन शब्द मूल रूप से एक-दूसरे के बगल में न हों. ज़्यादा सटीक तरीके से, "k-स्किप-n-ग्राम" एक ऐसा n-ग्राम होता है जिसमें ज़्यादा से ज़्यादा k शब्द छोड़े गए हों.

उदाहरण के लिए, "the quick brown fox" में ये दो-ग्राम हो सकते हैं:

  • "the quick"
  • "quick brown"
  • "brown fox"

"1-स्किप-2-ग्राम", शब्दों का ऐसा जोड़ा होता है जिनके बीच में ज़्यादा से ज़्यादा एक शब्द होता है. इसलिए, "the quick brown fox" में एक-स्किप वाले ये दो-ग्राम हैं:

  • "the brown"
  • "quick fox"

इसके अलावा, सभी दो-ग्राम, एक-स्किप-दो-ग्राम भी होते हैं, क्योंकि एक से ज़्यादा शब्द छोड़े जा सकते हैं.

स्किप-ग्राम, किसी शब्द के आस-पास के कॉन्टेक्स्ट को बेहतर तरीके से समझने में मदद करते हैं. उदाहरण में, "फ़ॉक्स" सीधे तौर पर "क्विक" से जुड़ा था, लेकिन 2-ग्राम के सेट में नहीं.

स्किप-ग्राम, वर्ड एम्बेडिंग मॉडल को ट्रेन करने में मदद करते हैं.

सॉफ़्टमैक्स

#fundamentals

यह फ़ंक्शन, मल्टी-क्लास क्लासिफ़िकेशन मॉडल में हर संभावित क्लास की संभावनाएं तय करता है. सभी संभावनाओं का जोड़, 1.0 होता है. उदाहरण के लिए, नीचे दी गई टेबल से पता चलता है कि सॉफ़्टमैक्स, अलग-अलग संभावनाओं को कैसे बांटता है:

इमेज एक... प्रॉबेबिलिटी
कुत्ता .85
cat .13
घोड़ा .02

सॉफ़्टमैक्स को फ़ुल सॉफ़्टमैक्स भी कहा जाता है.

उम्मीदवारों के सैंपल के साथ तुलना करें.

सॉफ़्ट प्रॉम्प्ट ट्यूनिंग

#language
#generativeAI

किसी खास टास्क के लिए, लार्ज लैंग्वेज मॉडल को ट्यून करने की एक तकनीक. इसमें ज़्यादा संसाधनों की ज़रूरत वाले फ़ाइन-ट्यूनिंग की ज़रूरत नहीं होती. मॉडल में सभी वेट को फिर से ट्रेन करने के बजाय, सॉफ़्ट प्रॉम्प्ट ट्यूनिंग एक ही लक्ष्य को हासिल करने के लिए, प्रॉम्प्ट में अपने-आप बदलाव करती है.

टेक्स्ट प्रॉम्प्ट के लिए, आम तौर पर सॉफ़्ट प्रॉम्प्ट ट्यूनिंग, प्रॉम्प्ट में अतिरिक्त टोकन एम्बेड जोड़ती है. साथ ही, इनपुट को ऑप्टिमाइज़ करने के लिए बैकप्रोपगेशन का इस्तेमाल करती है.

"हार्ड" प्रॉम्प्ट में, टोकन एम्बेड के बजाय असली टोकन होते हैं.

स्पैर्स फ़ीचर

#language
#fundamentals

ऐसी सुविधा जिसकी वैल्यू ज़्यादातर शून्य या खाली होती हैं. उदाहरण के लिए, एक वैल्यू 1 और एक लाख वैल्यू 0 वाली सुविधा, कम डेटा वाली सुविधा है. इसके उलट, डेंस फ़ीचर की वैल्यू, आम तौर पर शून्य या खाली नहीं होती हैं.

मशीन लर्निंग में, बहुत सारी सुविधाएं स्पैर्स सुविधाएं होती हैं. कैटगरी वाली सुविधाएं आम तौर पर कम होती हैं. उदाहरण के लिए, किसी जंगल में मौजूद 300 पेड़ों की प्रजातियों में से, किसी एक उदाहरण से सिर्फ़ मेपल ट्री की पहचान की जा सकती है. इसके अलावा, किसी वीडियो लाइब्रेरी में मौजूद लाखों वीडियो में से, एक उदाहरण से सिर्फ़ "Casablanca" की पहचान की जा सकती है.

आम तौर पर, किसी मॉडल में कम सुविधाओं को वन-हॉट एन्कोडिंग की मदद से दिखाया जाता है. अगर वन-हॉट एन्कोडिंग बड़ी है, तो बेहतर परफ़ॉर्मेंस के लिए, वन-हॉट एन्कोडिंग के ऊपर एम्बेडिंग लेयर डाली जा सकती है.

स्पैर्स प्रज़ेंटेशन

#language
#fundamentals

स्पैर्स फ़ीचर में, सिर्फ़ उन एलिमेंट की पोज़िशन सेव करना जिनकी वैल्यू शून्य से ज़्यादा है.

उदाहरण के लिए, मान लें कि species नाम की कैटगरी वाली सुविधा, किसी खास जंगल में मौजूद 36 तरह के पेड़ों की पहचान करती है. इसके अलावा, मान लें कि हर उदाहरण में सिर्फ़ एक प्रजाति की जानकारी दी गई है.

हर उदाहरण में पेड़ की प्रजाति दिखाने के लिए, वन-हॉट वेक्टर का इस्तेमाल किया जा सकता है. एक-हॉट वेक्टर में एक 1 (उस उदाहरण में पेड़ की किसी खास प्रजाति को दिखाने के लिए) और 35 0 (उस उदाहरण में पेड़ की नहीं 35 प्रजातियों को दिखाने के लिए) शामिल होंगे. इसलिए, maple का वन-हॉट वर्शन कुछ ऐसा दिख सकता है:

ऐसा वेक्टर जिसमें 0 से 23 तक की पोज़िशन में वैल्यू 0, 24वीं पोज़िशन में वैल्यू 1, और 25 से 35 तक की पोज़िशन में वैल्यू 0 है.

इसके अलावा, स्पैर्स रिप्रज़ेंटेशन से सिर्फ़ किसी खास प्रजाति की जगह की पहचान की जा सकती है. अगर maple 24वें स्थान पर है, तो maple का स्पैर्स रिप्रज़ेंटेशन इस तरह होगा:

24

ध्यान दें कि स्पैर्स रिप्रज़ेंटेशन, वन-हॉट रिप्रज़ेंटेशन की तुलना में काफ़ी छोटा होता है.

स्पैर्स वेक्टर

#fundamentals

ऐसा वेक्टर जिसकी वैल्यू ज़्यादातर शून्य होती हैं. स्पैर्स फ़ीचर और स्पैर्सिटी भी देखें.

कम जानकारी होना

किसी वेक्टर या मैट्रिक्स में शून्य (या शून्य) पर सेट किए गए एलिमेंट की संख्या को उस वेक्टर या मैट्रिक्स में मौजूद एंट्री की कुल संख्या से divide किया जाता है. उदाहरण के लिए, 100 एलिमेंट वाले मैट्रिक्स पर विचार करें, जिसमें 98 सेल में शून्य है. स्पार्सिटी का हिसाब इस तरह लगाया जाता है:

$$ {\text{sparsity}} = \frac{\text{98}} {\text{100}} = {\text{0.98}} $$

फ़ीचर स्पैर्सिटी का मतलब, फ़ीचर वेक्टर की स्पैर्सिटी से है; मॉडल स्पैर्सिटी का मतलब, मॉडल वेट की स्पैर्सिटी से है.

स्पेसिएल पूलिंग

#image

पूलिंग देखें.

बांटें

#df

फ़ैसला लेने के लिए ट्री में, शर्त का दूसरा नाम.

स्प्लिटर

#df

फ़ैसला लेने वाले ट्री को ट्रेनिंग देते समय, हर नोड में सबसे अच्छी स्थिति ढूंढने के लिए, रूटीन (और एल्गोरिदम) ज़िम्मेदार होता है.

SPMD

एक प्रोग्राम / एक से ज़्यादा डेटा का छोटा नाम.

स्क्वेयर्ड हिंज लॉस

हिंग लॉस का वर्ग. स्क्वेयर्ड हिंज लॉस, सामान्य हिंज लॉस की तुलना में आउटलायर को ज़्यादा सख्ती से दंडित करता है.

स्क्वेयर्ड लॉस

#fundamentals

L2 लॉस के लिए समानार्थी शब्द.

चरणों में ट्रेनिंग

#language

अलग-अलग चरणों के क्रम में मॉडल को ट्रेनिंग देने की रणनीति. इसका मकसद, ट्रेनिंग प्रोसेस को तेज़ करना या मॉडल की क्वालिटी को बेहतर बनाना हो सकता है.

प्रोग्रेसिव स्टैकिंग के तरीके का इलस्ट्रेशन यहां दिया गया है:

  • पहले चरण में तीन छिपी हुई लेयर, दूसरे चरण में छह छिपी हुई लेयर, और तीसरे चरण में 12 छिपी हुई लेयर होती हैं.
  • दूसरा चरण, पहले चरण की तीन छिपी हुई लेयर में सीखे गए वेट के साथ ट्रेनिंग शुरू करता है. तीसरे चरण में, दूसरे चरण की छह छिपी हुई लेयर में सीखे गए वेट का इस्तेमाल करके ट्रेनिंग शुरू की जाती है.

तीन चरण, जिन्हें पहला चरण, दूसरा चरण, और तीसरा चरण कहा जाता है.
          हर चरण में लेयर की संख्या अलग-अलग होती है: पहले चरण में तीन लेयर, दूसरे चरण में छह लेयर, और तीसरे चरण में 12 लेयर होती हैं.
          पहले चरण की तीन लेयर, दूसरे चरण की पहली तीन लेयर बन जाती हैं.
          इसी तरह, दूसरे चरण की छह लेयर, तीसरे चरण की पहली छह लेयर बन जाती हैं.

पाइपलाइनिंग भी देखें.

राज्य

#rl

रीइंफ़ोर्समेंट लर्निंग में, पैरामीटर की वैल्यू से एनवायरमेंट के मौजूदा कॉन्फ़िगरेशन के बारे में पता चलता है. एजेंट, कार्रवाई चुनने के लिए इन वैल्यू का इस्तेमाल करता है.

स्टेट-ऐक्शन वैल्यू फ़ंक्शन

#rl

Q-फ़ंक्शन का समानार्थी शब्द.

स्टैटिक

#fundamentals

ऐसा काम जो लगातार नहीं किया जाता. स्टैटिक और ऑफ़लाइन, एक ही चीज़ के लिए इस्तेमाल होने वाले शब्द हैं. मशीन लर्निंग में स्टैटिक और ऑफ़लाइन का आम तौर पर इस्तेमाल इस तरह किया जाता है:

  • स्टैटिक मॉडल (या ऑफ़लाइन मॉडल) एक ऐसा मॉडल होता है जिसे एक बार ट्रेन किया जाता है और फिर कुछ समय के लिए इस्तेमाल किया जाता है.
  • स्टैटिक ट्रेनिंग (या ऑफ़लाइन ट्रेनिंग) का मतलब, स्टैटिक मॉडल को ट्रेनिंग देना है.
  • स्टैटिक इंफ़रेंस (या ऑफ़लाइन इंफ़रेंस) एक ऐसी प्रोसेस है जिसमें मॉडल एक बार में कई अनुमान जनरेट करता है.

डाइनैमिक के साथ कंट्रास्ट.

स्टैटिक इंफ़रेंस

#fundamentals

ऑफ़लाइन अनुमान का समानार्थी शब्द.

स्टेशनरी

#fundamentals

ऐसी सुविधा जिसकी वैल्यू एक या उससे ज़्यादा डाइमेंशन में नहीं बदलती. आम तौर पर, समय में वैल्यू नहीं बदलती. उदाहरण के लिए, किसी ऐसी सुविधा की वैल्यू जो 2021 और 2023 में एक जैसी दिखती है, वह स्टेशनरी है.

असल दुनिया में, बहुत कम फ़ीचर में स्टेशनरी दिखती है. स्थिरता से जुड़ी सुविधाएं (जैसे, समुद्र का लेवल) भी समय के साथ बदलती हैं.

नॉन-स्टेशनरिटी के साथ तुलना करें.

चरण

एक बैच का फ़ॉरवर्ड पास और बैकवर्ड पास.

फ़ॉरवर्ड पास और बैकवर्ड पास के बारे में ज़्यादा जानकारी के लिए, बैकप्रोपगेशन देखें.

स्टेप साइज़

लर्निंग रेट का समानार्थी शब्द.

स्टोकेस्टिक ग्रेडिएंट डिसेंट (एसजीडी)

#fundamentals

ग्रेडिएंट डिसेंट एल्गोरिदम, जिसमें बैच का साइज़ एक है. दूसरे शब्दों में, एसजीडी, ट्रेनिंग सेट से एक उदाहरण को यादृच्छिक तौर पर चुनकर ट्रेनिंग करता है.

स्ट्राइड

#image

कॉन्वोल्यूशनल ऑपरेशन या पूलिंग में, इनपुट स्लाइस की अगली सीरीज़ के हर डाइमेंशन में डेल्टा. उदाहरण के लिए, यहां दिया गया ऐनिमेशन, कॉन्वोल्यूशनल ऑपरेशन के दौरान (1,1) स्ट्राइड दिखाता है. इसलिए, अगला इनपुट स्लाइस, पिछले इनपुट स्लाइस की दाईं ओर से शुरू होता है. जब ऑपरेशन दाएं किनारे तक पहुंच जाता है, तो अगला स्लाइस पूरी तरह से बाईं ओर होता है, लेकिन एक पोज़िशन नीचे होता है.

इनपुट 5x5 मैट्रिक्स और 3x3 कॉन्वोल्यूशनल फ़िल्टर. स्ट्राइड (1,1) होने की वजह से, कॉन्वोल्यूशनल फ़िल्टर नौ बार लागू किया जाएगा. पहली
     कन्वोल्यूशनल स्लाइस, इनपुट मैट्रिक के सबसे ऊपर बाईं ओर मौजूद 3x3 सबमैट्रिक का आकलन करती है. दूसरा स्लाइस, सबसे ऊपर बीच में मौजूद 3x3
     सबमैट्रिक का आकलन करता है. तीसरी कन्वोल्यूशनल स्लाइस, सबसे ऊपर दाईं ओर मौजूद 3x3
     सबमैट्रिक का आकलन करती है.  चौथा स्लाइस, बीच में बाईं ओर मौजूद 3x3 सबमैट्रिक का आकलन करता है.
     पांचवां स्लाइस, बीच में मौजूद 3x3 सबमैट्रिक का आकलन करता है. छठा स्लाइस
     बीच में दाईं ओर मौजूद 3x3 सबमैट्रिक का आकलन करता है. सातवां स्लाइस, सबसे नीचे बाईं ओर मौजूद 3x3 सबमैट्रिक का आकलन करता है.  आठवां स्लाइस, सबसे नीचे बीच में मौजूद 3x3 सबमैट्रिक का आकलन करता है. नौवां स्लाइस, सबसे नीचे दाईं ओर मौजूद 3x3
     सबमैट्रिक का आकलन करता है.

पिछले उदाहरण में, दो डाइमेंशन वाली स्ट्राइड दिखाई गई है. अगर इनपुट मैट्रिक तीन डाइमेंशन वाली है, तो स्ट्राइड भी तीन डाइमेंशन वाली होगी.

स्ट्रक्चरल रिस्क मिनिमाइज़ेशन (एसआरएम)

एक ऐसा एल्गोरिदम जो दो लक्ष्यों को संतुलित करता है:

  • सबसे सटीक अनुमान लगाने वाला मॉडल बनाने की ज़रूरत (उदाहरण के लिए, सबसे कम नुकसान).
  • मॉडल को जितना हो सके उतना आसान रखना ज़रूरी है. उदाहरण के लिए, ज़्यादा रेगुलराइज़ेशन.

उदाहरण के लिए, ट्रेनिंग सेट पर लॉस और रेगुलराइज़ेशन को कम करने वाला फ़ंक्शन, स्ट्रक्चरल रिस्क को कम करने वाला एल्गोरिदम है.

एम्प्रिकल रिस्क मिनिमाइज़ेशन के साथ तुलना करें.

सब-सैंपलिंग

#image

पूलिंग देखें.

सबवर्ड टोकन

#language

भाषा मॉडल में, टोकन, किसी शब्द का सबसे छोटा हिस्सा होता है. यह पूरा शब्द भी हो सकता है.

उदाहरण के लिए, "itemize" जैसे शब्द को "item" (रूट शब्द) और "ize" (सर्फ़िक्स) में बांटा जा सकता है. इनमें से हर शब्द को अपने टोकन से दिखाया जाता है. आम तौर पर इस्तेमाल न होने वाले शब्दों को ऐसे हिस्सों में बांटने पर, उन्हें सबवर्ड कहा जाता है. इससे भाषा मॉडल, शब्द के सामान्य हिस्सों पर काम कर पाते हैं. जैसे, प्रीफ़िक्स और सफ़िक्स.

इसके उलट, हो सकता है कि "going" जैसे सामान्य शब्दों को अलग-अलग टुकड़ों में न बांटा जाए और उन्हें एक टोक़न से दिखाया जाए.

सारांश

#TensorFlow

TensorFlow में, किसी खास चरण में कैलकुलेट की गई वैल्यू या वैल्यू का सेट. आम तौर पर, इसका इस्तेमाल ट्रेनिंग के दौरान मॉडल की मेट्रिक को ट्रैक करने के लिए किया जाता है.

सुपरवाइज़्ड मशीन लर्निंग

#fundamentals

सुविधाओं और उनसे जुड़े लेबल से, मॉडल को ट्रेनिंग देना. सुपरवाइज़्ड मशीन लर्निंग, सवालों के एक सेट और उनके जवाबों का अध्ययन करके किसी विषय को सीखने जैसा है. सवालों और जवाबों के बीच मैपिंग करने के बाद, छात्र उसी विषय पर नए (पहले कभी न देखे गए) सवालों के जवाब दे सकता है.

बिना निगरानी वाली मशीन लर्निंग की तुलना करें.

सिंथेटिक फ़ीचर

#fundamentals

ऐसी सुविधा जो इनपुट सुविधाओं में मौजूद नहीं है, लेकिन एक या उससे ज़्यादा सुविधाओं से इकट्ठा की गई है. एआई से जनरेट की गई सुविधाएं बनाने के तरीकों में ये शामिल हैं:

  • किसी लगातार चलने वाली सुविधा को रेंज के बाइन में बकेट करना.
  • सुविधा का क्रॉस बनाना.
  • किसी सुविधा की वैल्यू को दूसरी सुविधा की वैल्यू से गुणा करना (या उससे भाग देना) या खुद से गुणा करना(या उससे भाग देना). उदाहरण के लिए, अगर a और b इनपुट फ़ीचर हैं, तो यहां दिए गए उदाहरण सिंथेटिक फ़ीचर के हैं:
    • ab
    • a2
  • किसी सुविधा की वैल्यू पर ट्रांससेंडेंटल फ़ंक्शन लागू करना. उदाहरण के लिए, अगर c इनपुट फ़ीचर है, तो सिंथेटिक फ़ीचर के उदाहरण यहां दिए गए हैं:
    • sin(c)
    • ln(c)

सामान्य बनाने या स्केलिंग के ज़रिए बनाई गई सुविधाओं को एआई से जनरेट की गई सुविधाएं नहीं माना जाता.

T

T5

#language

टेक्स्ट-टू-टेक्स्ट ट्रांसफ़र लर्निंग मॉडल, जिसे Google के एआई ने 2020 में लॉन्च किया था. T5, एन्कोडर-डिकोडर मॉडल है. यह ट्रांसफ़ॉर्मर आर्किटेक्चर पर आधारित है और इसे बहुत बड़े डेटासेट पर ट्रेन किया गया है. यह नैचुरल लैंग्वेज प्रोसेसिंग से जुड़े कई कामों में असरदार है. जैसे, टेक्स्ट जनरेट करना, भाषाओं का अनुवाद करना, और बातचीत वाले तरीके से सवालों के जवाब देना.

T5 का नाम, "टेक्स्ट-टू-टेक्स्ट ट्रांसफ़र ट्रांसफ़ॉर्मर" में मौजूद पांच T से मिलता है.

T5X

#language

यह एक ओपन-सोर्स, मशीन लर्निंग फ़्रेमवर्क है. इसे बड़े पैमाने पर नैचुरल लैंग्वेज प्रोसेसिंग (एनएलपी) मॉडल बनाने और ट्रेन करने के लिए डिज़ाइन किया गया है. T5 को T5X कोडबेस पर लागू किया गया है. यह कोडबेस, JAX और Flax पर आधारित है.

टेबल में मौजूद Q-लर्निंग

#rl

रीइंफ़ोर्समेंट लर्निंग में, टेबल का इस्तेमाल करके क्यू-लर्निंग लागू करना. इससे, स्टेटस और कार्रवाई के हर कॉम्बिनेशन के लिए, क्यू-फ़ंक्शन को सेव किया जा सकता है.

टारगेट

लेबल का समानार्थी शब्द.

टारगेट नेटवर्क

#rl

डीप क्यू-लर्निंग में, एक ऐसा न्यूरल नेटवर्क होता है जो मुख्य न्यूरल नेटवर्क का एक स्थिर अनुमान होता है. इसमें मुख्य न्यूरल नेटवर्क, क्यू-फ़ंक्शन या नीति को लागू करता है. इसके बाद, टारगेट नेटवर्क से अनुमानित Q-वैल्यू के आधार पर, मुख्य नेटवर्क को ट्रेन किया जा सकता है. इसलिए, फ़ीडबैक लूप को रोका जा सकता है. यह लूप तब होता है, जब मुख्य नेटवर्क, अपने हिसाब से अनुमानित Q-वैल्यू पर ट्रेनिंग करता है. इस फ़ीडबैक को रोकने से, trianing की स्थिरता बढ़ती है.

टास्क

ऐसी समस्या जिसे मशीन लर्निंग की तकनीकों का इस्तेमाल करके हल किया जा सकता है. जैसे:

तापमान

#language
#image
#generativeAI

हाइपरपैरामीटर, जो मॉडल के आउटपुट के लिए, यादृच्छिकता की डिग्री को कंट्रोल करता है. ज़्यादा तापमान पर, रैंडम आउटपुट ज़्यादा मिलता है, जबकि कम तापमान पर रैंडम आउटपुट कम मिलता है.

सबसे सही तापमान चुनना, खास ऐप्लिकेशन और मॉडल के आउटपुट की पसंदीदा प्रॉपर्टी पर निर्भर करता है. उदाहरण के लिए, क्रिएटिव आउटपुट जनरेट करने वाला ऐप्लिकेशन बनाते समय, शायद आप टेंपरेचर बढ़ाना चाहें. इसके उलट, इमेज या टेक्स्ट को अलग-अलग कैटगरी में बांटने वाले मॉडल को बनाते समय, शायद आप तापमान को कम कर दें. इससे मॉडल की सटीकता और एक जैसी परफ़ॉर्मेंस को बेहतर बनाया जा सकता है.

तापमान का इस्तेमाल अक्सर softmax के साथ किया जाता है.

टाइमसेरियल डेटा

अलग-अलग समय पर रिकॉर्ड किया गया डेटा. उदाहरण के लिए, साल के हर दिन रिकॉर्ड की गई, सर्दियों के कोट की बिक्री को टाइमसेरियल डेटा कहा जाएगा.

Tensor

#TensorFlow

TensorFlow प्रोग्राम में मुख्य डेटा स्ट्रक्चर. टेंसर, N-डाइमेंशनल (जहां N बहुत बड़ा हो सकता है) डेटा स्ट्रक्चर होते हैं. आम तौर पर, ये स्केलर, वैक्टर या मैट्रिक्स होते हैं. टेंसर के एलिमेंट में, पूर्णांक, फ़्लोटिंग-पॉइंट या स्ट्रिंग वैल्यू हो सकती हैं.

TensorBoard

#TensorFlow

एक या एक से ज़्यादा TensorFlow प्रोग्राम चलाने के दौरान सेव की गई खास जानकारी दिखाने वाला डैशबोर्ड.

TensorFlow

#TensorFlow

बड़े पैमाने पर उपलब्ध, डिस्ट्रिब्यूट किया गया मशीन लर्निंग प्लैटफ़ॉर्म. यह शब्द, TensorFlow स्टैक में मौजूद एपीआई की बुनियादी लेयर को भी दिखाता है. यह लेयर, डेटाफ़्लो ग्राफ़ पर सामान्य कैलकुलेशन की सुविधा देती है.

TensorFlow का इस्तेमाल मुख्य रूप से मशीन लर्निंग के लिए किया जाता है. हालांकि, TensorFlow का इस्तेमाल उन गैर-मशीन लर्निंग टास्क के लिए भी किया जा सकता है जिनमें डेटाफ़्लो ग्राफ़ का इस्तेमाल करके संख्यात्मक गणना की ज़रूरत होती है.

TensorFlow Playground

#TensorFlow

यह एक ऐसा प्रोग्राम है जो विज़ुअलाइज़ करता है कि अलग-अलग हाइपरपैरामीटर, मॉडल (मुख्य रूप से न्यूरल नेटवर्क) की ट्रेनिंग पर कैसे असर डालते हैं. TensorFlow Playground को आज़माने के लिए, http://playground.tensorflow.org पर जाएं.

TensorFlow Serving

#TensorFlow

ट्रेन किए गए मॉडल को प्रोडक्शन में डिप्लॉय करने के लिए प्लैटफ़ॉर्म.

टेंसर प्रोसेसिंग यूनिट (TPU)

#TensorFlow
#GoogleCloud

ऐप्लिकेशन के हिसाब से बनाया गया इंटिग्रेटेड सर्किट (एएसआईसी), जो मशीन लर्निंग वर्कलोड की परफ़ॉर्मेंस को ऑप्टिमाइज़ करता है. इन एएसआईसी को TPU डिवाइस पर, कई TPU चिप के तौर पर डिप्लॉय किया जाता है.

टेंसर रैंक

#TensorFlow

रैंक (टेंसर) देखें.

टेंसर का आकार

#TensorFlow

अलग-अलग डाइमेंशन में, Tensor में मौजूद एलिमेंट की संख्या. उदाहरण के लिए, किसी [5, 10] टेंसर का एक डाइमेंशन 5 और दूसरा डाइमेंशन 10 वाला हो सकता है.

टेंसर का साइज़

#TensorFlow

Tensor में स्केलर की कुल संख्या. उदाहरण के लिए, किसी [5, 10] टेंसर का साइज़ 50 है.

TensorStore

एक लाइब्रेरी, जो कई डाइमेंशन वाले बड़े ऐरे को बेहतर तरीके से पढ़ और लिख सकती है.

सदस्यता खत्म होने की शर्त

#rl

रीइंफ़ोर्समेंट लर्निंग में, ऐसी शर्तें होती हैं जिनसे यह तय होता है कि एपिसोड कब खत्म होगा. जैसे, जब एजेंट किसी खास स्टेटस पर पहुंचता है या स्टेटस ट्रांज़िशन की थ्रेशोल्ड संख्या से ज़्यादा हो जाती है. उदाहरण के लिए, टिक-टैक-टो (इसे क्रॉस और नॉट भी कहा जाता है) में, कोई एपिसोड तब खत्म होता है, जब कोई खिलाड़ी लगातार तीन स्पेस मार्क करता है या सभी स्पेस मार्क कर लेता है.

टेस्ट

#df

फ़ैसला लेने के लिए ट्री में, शर्त का दूसरा नाम.

टेस्ट लॉस

#fundamentals

टेस्ट सेट के मुकाबले, मॉडल के लॉस को दिखाने वाली मेट्रिक. मॉडल बनाते समय, आम तौर पर टेस्ट में होने वाली गड़बड़ी को कम करने की कोशिश की जाती है. इसकी वजह यह है कि कम टेस्ट लॉस, ट्रेनिंग लॉस या पुष्टि करने के लिए इस्तेमाल होने वाले लॉस की तुलना में, क्वालिटी का बेहतर सिग्नल होता है.

टेस्ट लॉस और ट्रेनिंग लॉस या पुष्टि करने के दौरान होने वाले लॉस के बीच का बड़ा अंतर, कभी-कभी यह बताता है कि आपको रेगुलराइज़ेशन रेट बढ़ाना होगा.

टेस्ट सेट

डेटासेट का सबसेट, जिसे ट्रेन किए गए मॉडल की जांच करने के लिए रखा गया है.

आम तौर पर, डेटासेट में मौजूद उदाहरणों को इन तीन अलग-अलग सबसेट में बांटा जाता है:

डेटासेट में मौजूद हर उदाहरण, पहले से मौजूद किसी एक सबसेट से जुड़ा होना चाहिए. उदाहरण के लिए, एक ही उदाहरण, ट्रेनिंग सेट और जांच सेट, दोनों में शामिल नहीं होना चाहिए.

ट्रेनिंग सेट और पुष्टि करने वाला सेट, दोनों मॉडल को ट्रेनिंग देने से जुड़े होते हैं. टेस्ट सेट, ट्रेनिंग से सिर्फ़ अप्रत्यक्ष रूप से जुड़ा होता है. इसलिए, टेस्ट लॉस, ट्रेनिंग लॉस या पुष्टि करने से जुड़ा लॉस के मुकाबले कम पक्षपात वाली और बेहतर क्वालिटी वाली मेट्रिक होती है.

टेक्स्ट स्पैन

#language

टेक्स्ट स्ट्रिंग के किसी खास सबसेक्शन से जुड़ा ऐरे इंडेक्स स्पैन. उदाहरण के लिए, Python स्ट्रिंग s="Be good now" में good शब्द, टेक्स्ट स्पैन में 3 से 6 तक का होता है.

tf.Example

#TensorFlow

मशीन लर्निंग मॉडल को ट्रेनिंग देने या अनुमान लगाने के लिए, इनपुट डेटा की जानकारी देने वाला स्टैंडर्ड प्रोटोकॉल बफ़र.

tf.keras

#TensorFlow

Keras को TensorFlow के साथ इंटिग्रेट किया गया है.

थ्रेशोल्ड (डिसीज़न ट्री के लिए)

#df

ऐक्सिस के साथ अलाइन की गई शर्त में, वह वैल्यू जिसकी तुलना सुविधा से की जा रही है. उदाहरण के लिए, नीचे दी गई शर्त में 75 थ्रेशोल्ड वैल्यू है:

grade >= 75

टाइम सीरीज़ का विश्लेषण

#clustering

मशीन लर्निंग और आंकड़ों का एक उप-क्षेत्र, जो समय के साथ बदलने वाले डेटा का विश्लेषण करता है. मशीन लर्निंग से जुड़ी कई तरह की समस्याओं के लिए, टाइम सीरीज़ विश्लेषण की ज़रूरत होती है. इनमें डेटा की कैटगरी तय करना, क्लस्टर बनाना, अनुमान लगाना, और गड़बड़ी का पता लगाना शामिल है. उदाहरण के लिए, बिक्री के पुराने डेटा के आधार पर, सर्दियों के कोट की बिक्री के अनुमान के लिए, टाइम सीरीज़ विश्लेषण का इस्तेमाल किया जा सकता है.

टाइमस्टेप

#seq

रीकurrent न्यूरल नेटवर्क में एक "अनरोल्ड" सेल. उदाहरण के लिए, नीचे दिए गए फ़्लो चार्ट में तीन टाइमस्टेप दिखाए गए हैं. इन्हें सबस्क्रिप्ट t-1, t, और t+1 से लेबल किया गया है:

बार-बार इस्तेमाल होने वाले न्यूरल नेटवर्क में तीन टाइमस्टेप. पहले टाइमस्टेप का आउटपुट, दूसरे टाइमस्टेप का इनपुट बन जाता है. दूसरे टाइमस्टेप का आउटपुट, तीसरे टाइमस्टेप का इनपुट बन जाता है.

टोकन

#language

भाषा मॉडल में, वह एटमिक यूनिट जिस पर मॉडल को ट्रेनिंग दी जा रही है और जिस पर अनुमान लगाया जा रहा है. आम तौर पर, टोकन इनमें से कोई एक होता है:

  • कोई शब्द—उदाहरण के लिए, "कुत्ते बिल्लियों को पसंद करते हैं" वाक्यांश में तीन वर्ड टोक़न हैं: "कुत्ते", "पसंद करते हैं", और "बिल्लियां".
  • वर्ण—उदाहरण के लिए, "बाइक फ़िश" फ़्रेज़ में नौ वर्ण वाले टोकन हैं. (ध्यान दें कि खाली जगह को एक टोकन माना जाता है.)
  • सबवर्ड—इसमें एक शब्द एक टोकन या कई टोकन हो सकता है. सबवर्ड में रूट शब्द, प्रीफ़िक्स या सफ़िक्स होता है. उदाहरण के लिए, ऐसा भाषा मॉडल जो सबवर्ड को टोकन के तौर पर इस्तेमाल करता है, वह "कुत्ते" शब्द को दो टोकन (मूल शब्द "कुत्ता" और बहुवचन प्रत्यय "ए") के तौर पर देख सकता है. वही भाषा मॉडल, "लंबा" शब्द को दो सबवर्ड (मूल शब्द "लंबा" और सफ़िक्स "er") के तौर पर देख सकता है.

भाषा मॉडल के बाहर के डोमेन में, टोकन अन्य तरह की एटमिक यूनिट को दिखा सकते हैं. उदाहरण के लिए, कंप्यूटर विज़न में, टोकन किसी इमेज का सबसेट हो सकता है.

टॉप-k सटीक

#language

जनरेट की गई सूचियों की पहली k पोज़िशन में, "टारगेट लेबल" दिखने की संख्या का प्रतिशत. ये सूचियां, आपके हिसाब से सुझाव हो सकती हैं या softmax के हिसाब से क्रम में लगाए गए आइटम की सूची हो सकती हैं.

टॉप-k सटीक जानकारी को k पर सटीक जानकारी भी कहा जाता है.

Tower

डीप न्यूरल नेटवर्क का एक कॉम्पोनेंट, जो खुद एक डीप न्यूरल नेटवर्क है. कुछ मामलों में, हर टावर किसी अलग डेटा सोर्स से डेटा पढ़ता है. ये टावर तब तक अलग-अलग रहते हैं, जब तक उनके आउटपुट को फ़ाइनल लेयर में नहीं जोड़ दिया जाता. अन्य मामलों में, (उदाहरण के लिए, कई ट्रांसफ़ॉर्मर के एन्कोडर और डिकोडर टावर में), टावर एक-दूसरे से क्रॉस-कनेक्ट होते हैं.

बुरा बर्ताव

#language

कॉन्टेंट में बुरे बर्ताव, धमकी या आपत्तिजनक कॉन्टेंट किस हद तक है. मशीन लर्निंग के कई मॉडल, आपत्तिजनक कॉन्टेंट की पहचान कर सकते हैं और उसका आकलन कर सकते हैं. इनमें से ज़्यादातर मॉडल, कई पैरामीटर के आधार पर नुकसान पहुंचाने वाले कॉन्टेंट की पहचान करते हैं. जैसे, अपशब्दों के इस्तेमाल का लेवल और धमकी देने वाली भाषा का लेवल.

टीपीयू (TPU)

#TensorFlow
#GoogleCloud

टेंसर प्रोसेसिंग यूनिट का छोटा नाम.

TPU चिप

#TensorFlow
#GoogleCloud

प्रोग्राम किया जा सकने वाला लीनियर ऐल्जेब्रा एक्सेलरेटर, जिसमें चिप पर हाई बैंडविथ वाली मेमोरी होती है. इसे मशीन लर्निंग के ज़्यादा काम के लिए ऑप्टिमाइज़ किया गया है. TPU डिवाइस पर कई TPU चिप डिप्लॉय किए जाते हैं.

TPU डिवाइस

#TensorFlow
#GoogleCloud

एक प्रिंटेड सर्किट बोर्ड (पीसीबी), जिसमें कई TPU चिप, ज़्यादा बैंडविड्थ वाले नेटवर्क इंटरफ़ेस, और सिस्टम कूलिंग हार्डवेयर होते हैं.

TPU मास्टर

#TensorFlow
#GoogleCloud

होस्ट मशीन पर चलने वाली मुख्य कोऑर्डिनेशन प्रोसेस, जो TPU वर्कर्स को डेटा, नतीजे, प्रोग्राम, परफ़ॉर्मेंस, और सिस्टम की परफ़ॉर्मेंस की जानकारी भेजती है और उनसे जानकारी पाती है. TPU मास्टर, TPU डिवाइसों के सेटअप और बंद होने को भी मैनेज करता है.

TPU नोड

#TensorFlow
#GoogleCloud

Google Cloud पर मौजूद ऐसा TPU रिसॉर्स जिसमें कोई खास TPU टाइप हो. TPU नोड, पियर वीपीसी नेटवर्क से आपके वीपीसी नेटवर्क से कनेक्ट होता है. TPU नोड, Cloud TPU API में बताए गए संसाधन हैं.

टीपीयू (TPU) पॉड

#TensorFlow
#GoogleCloud

Google के डेटा सेंटर में, TPU डिवाइसों का कोई खास कॉन्फ़िगरेशन. TPU पॉड में मौजूद सभी डिवाइस, एक खास ज़्यादा स्पीड वाले नेटवर्क से एक-दूसरे से कनेक्ट होते हैं. TPU पॉड, किसी खास TPU वर्शन के लिए उपलब्ध TPU डिवाइसों का सबसे बड़ा कॉन्फ़िगरेशन होता है.

TPU रिसॉर्स

#TensorFlow
#GoogleCloud

Google Cloud पर मौजूद TPU इकाई, जिसे आपने बनाया है, मैनेज किया है या इस्तेमाल किया है. उदाहरण के लिए, TPU नोड और TPU टाइप, TPU संसाधन हैं.

TPU स्लाइस

#TensorFlow
#GoogleCloud

TPU स्लाइस, TPU पॉड में मौजूद TPU डिवाइसों का एक छोटा हिस्सा होता है. TPU स्लाइस में मौजूद सभी डिवाइस, एक खास ज़्यादा स्पीड वाले नेटवर्क से एक-दूसरे से कनेक्ट होते हैं.

TPU का टाइप

#TensorFlow
#GoogleCloud

किसी खास TPU हार्डवेयर वर्शन के साथ, एक या एक से ज़्यादा TPU डिवाइसों का कॉन्फ़िगरेशन. Google Cloud पर TPU नोड बनाते समय, TPU का टाइप चुना जाता है. उदाहरण के लिए, v2-8 TPU टाइप, आठ कोर वाला एक TPU v2 डिवाइस है. v3-2048 टाइप के TPU में, 256 कनेक्ट किए गए TPU v3 डिवाइस और कुल 2,048 कोर होते हैं. TPU टाइप, Cloud TPU API में बताए गए संसाधन हैं.

TPU वर्कर

#TensorFlow
#GoogleCloud

यह एक प्रोसेस है, जो होस्ट मशीन पर चलती है और TPU डिवाइसों पर मशीन लर्निंग प्रोग्राम को लागू करती है.

ट्रेनिंग

#fundamentals

मॉडल में शामिल, सही पैरामीटर (वज़न और पूर्वाग्रह) तय करने की प्रोसेस. ट्रेनिंग के दौरान, सिस्टम उदाहरणों को पढ़ता है और धीरे-धीरे पैरामीटर में बदलाव करता है. ट्रेनिंग में, हर उदाहरण का इस्तेमाल कुछ से लेकर अरबों बार किया जाता है.

ट्रेनिंग में हुई कमी

#fundamentals

यह एक मेट्रिक है, जो किसी खास ट्रेनिंग के दौरान मॉडल के लॉस को दिखाती है. उदाहरण के लिए, मान लें कि लॉस फ़ंक्शन मीन स्क्वेयर्ड गड़बड़ी है. शायद 10वें आइटरेशन के लिए ट्रेनिंग लॉस (मीन स्क्वेयर्ड एरर) 2.2 है और 100वें आइटरेशन के लिए ट्रेनिंग लॉस 1.9 है.

लॉस कर्व, ट्रेनिंग लॉस को दोहराव की संख्या के मुकाबले प्लॉट करता है. लॉस कर्व से, ट्रेनिंग के बारे में ये अहम जानकारी मिलती है:

  • नीचे की ओर ढलान का मतलब है कि मॉडल की परफ़ॉर्मेंस बेहतर हो रही है.
  • ऊपर की ओर बढ़ने का मतलब है कि मॉडल की परफ़ॉर्मेंस खराब हो रही है.
  • सपाट ढलान का मतलब है कि मॉडल कंसर्वेशन तक पहुंच गया है.

उदाहरण के लिए, यहां दिया गया लॉस कर्व, कुछ हद तक आदर्श है. इसमें यह दिखाया गया है:

  • शुरुआती दोहरावों के दौरान, डाउनवर्ड स्लोप का ज़्यादा होना. इसका मतलब है कि मॉडल में तेज़ी से सुधार हो रहा है.
  • ट्रेनिंग के आखिर तक धीरे-धीरे सपाट (लेकिन अब भी नीचे की ओर) स्लोप, जिसका मतलब है कि शुरुआती दोहरावों के मुकाबले, मॉडल में अब भी धीमी रफ़्तार से सुधार हो रहा है.
  • ट्रेनिंग के आखिर में, प्लॉट का सपाट होना, जिससे यह पता चलता है कि मॉडल के एलिमेंट एक-दूसरे से मिल गए हैं.

ट्रेनिंग लॉस बनाम दोहराव का प्लॉट. यह लॉस कर्व, धीरे-धीरे नीचे की ओर झुकता है. ढलान धीरे-धीरे तब तक सपाट होता है, जब तक कि ढलान शून्य न हो जाए.

ट्रेनिंग लॉस अहम है, लेकिन जनरलाइज़ेशन भी देखें.

ट्रेनिंग और ब्राउज़र में वेब पेज खोलने के दौरान परफ़ॉर्मेंस में अंतर

#fundamentals

ट्रेनिंग के दौरान मॉडल की परफ़ॉर्मेंस और इस्तेमाल के दौरान मॉडल की परफ़ॉर्मेंस के बीच का अंतर.

ट्रेनिंग सेट

#fundamentals

मॉडल को ट्रेनिंग देने के लिए इस्तेमाल किए जाने वाले डेटासेट का सबसेट.

आम तौर पर, डेटासेट में मौजूद उदाहरणों को इन तीन अलग-अलग सबसेट में बांटा जाता है:

आम तौर पर, डेटासेट में मौजूद हर उदाहरण, पहले से मौजूद सबसेट में से सिर्फ़ एक से जुड़ा होना चाहिए. उदाहरण के लिए, कोई एक उदाहरण, ट्रेनिंग सेट और पुष्टि करने वाले सेट, दोनों में शामिल नहीं होना चाहिए.

ट्रैजेक्ट्री

#rl

रीइंफ़ोर्समेंट लर्निंग में, ट्यूपल का क्रम, जो एजेंट की स्थिति के ट्रांज़िशन के क्रम को दिखाता है. इसमें हर ट्यूपल, किसी स्थिति के ट्रांज़िशन के लिए, स्थिति, कार्रवाई, इनाम, और अगली स्थिति से जुड़ा होता है.

ट्रांसफ़र लर्निंग

मशीन लर्निंग के एक टास्क से दूसरे टास्क में जानकारी ट्रांसफ़र करना. उदाहरण के लिए, मल्टी-टास्क लर्निंग में, एक मॉडल कई टास्क हल करता है. जैसे, डीप मॉडल, जिसमें अलग-अलग टास्क के लिए अलग-अलग आउटपुट नोड होते हैं. ट्रांसफ़र लर्निंग में, किसी आसान टास्क के समाधान से ज़्यादा मुश्किल टास्क के समाधान में जानकारी ट्रांसफ़र करना शामिल हो सकता है. इसके अलावा, किसी ऐसे टास्क से जानकारी ट्रांसफ़र करना भी शामिल हो सकता है जिसमें ज़्यादा डेटा हो और किसी ऐसे टास्क में जानकारी ट्रांसफ़र करना जिसमें कम डेटा हो.

ज़्यादातर मशीन लर्निंग सिस्टम, सिर्फ़ एक टास्क को हल करते हैं. ट्रांसफ़र लर्निंग, आर्टिफ़िशियल इंटेलिजेंस की ओर एक छोटा कदम है. इसमें एक प्रोग्राम, कई टास्क हल कर सकता है.

ट्रांसफ़र्मर

#language

Google ने न्यूरल नेटवर्क का एक आर्किटेक्चर विकसित किया है. यह सेल्फ़-अटेंशन मशीन पर आधारित है. इसकी मदद से, इनपुट एम्बेडिंग के क्रम को आउटपुट एम्बेडिंग के क्रम में बदला जा सकता है. इसके लिए, कंवोल्यूशन या रीकurrent न्यूरल नेटवर्क का इस्तेमाल नहीं किया जाता. ट्रांसफ़ॉर्मर को, सेल्फ़-अटेंशन लेयर के स्टैक के तौर पर देखा जा सकता है.

किसी ट्रांसफ़ॉर्मर में इनमें से कोई भी शामिल हो सकता है:

एन्कोडर, एम्बेड किए गए वैल्यू के क्रम को उसी लंबाई के नए क्रम में बदल देता है. एन्कोडर में N एक जैसी लेयर होती हैं. इनमें से हर लेयर में दो सब-लेयर होती हैं. ये दो सब-लेयर, इनपुट एम्बेडिंग क्रम की हर पोज़िशन पर लागू होते हैं. इससे, क्रम के हर एलिमेंट को एक नए एम्बेडिंग में बदल दिया जाता है. पहली एन्कोडर सब-लेयर, पूरे इनपुट क्रम से जानकारी इकट्ठा करती है. दूसरी एन्कोडर सब-लेयर, एग्रीगेट की गई जानकारी को आउटपुट एम्बेडिंग में बदल देती है.

डिकोडर, इनपुट एम्बेडिंग के क्रम को आउटपुट एम्बेडिंग के क्रम में बदल देता है. ऐसा हो सकता है कि आउटपुट एम्बेडिंग की लंबाई अलग हो. डिकोडर में भी तीन सब-लेयर वाली N एक जैसी लेयर शामिल होती हैं. इनमें से दो लेयर, एन्कोडर की सब-लेयर से मिलती-जुलती होती हैं. तीसरी डिकोडर सब-लेयर, एन्कोडर का आउटपुट लेती है और उससे जानकारी इकट्ठा करने के लिए, सेल्फ़-अटेंशन मशीन लर्निंग मॉडल लागू करती है.

Transformer: A Novel Neural Network Architecture for Language Understanding ब्लॉग पोस्ट में, ट्रांसफ़ॉर्मर के बारे में अच्छी जानकारी दी गई है.

ट्रांसलेशनल इनवैरिएंस

#image

इमेज को अलग-अलग कैटगरी में बांटने की समस्या में, एल्गोरिदम की यह क्षमता कि वह इमेज में ऑब्जेक्ट की पोज़िशन बदलने पर भी, इमेज को अलग-अलग कैटगरी में बांट सके. उदाहरण के लिए, एल्गोरिदम अब भी कुत्ते की पहचान कर सकता है, भले ही वह फ़्रेम के बीच में हो या फ़्रेम के बाईं ओर.

साइज़ में बदलाव न होना और रोटेशन में बदलाव न होना भी देखें.

ट्रिग्रम

#seq
#language

एन-ग्राम, जिसमें N=3 है.

खतरे को सही आंकना (TN)

#fundamentals

एक उदाहरण, जिसमें मॉडल ने नेगेटिव क्लास का सही अनुमान लगाया है. उदाहरण के लिए, मॉडल यह अनुमान लगाता है कि कोई ईमेल मैसेज स्पैम नहीं है और वह ईमेल मैसेज वाकई स्पैम नहीं है.

ट्रू पॉज़िटिव (TP)

#fundamentals

एक उदाहरण, जिसमें मॉडल ने पॉज़िटिव क्लास का सही अनुमान लगाया है. उदाहरण के लिए, मॉडल यह अनुमान लगाता है कि कोई ईमेल मैसेज स्पैम है और वह ईमेल मैसेज वाकई में स्पैम है.

ट्रू पॉज़िटिव रेट (टीपीआर)

#fundamentals

रिवॉल्कर के लिए समानार्थी शब्द. यानी:

$$\text{true positive rate} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}}$$

आरओसी कर्व में, असल पॉज़िटिव रेट, y-ऐक्सिस होता है.

U

संवेदनशील एट्रिब्यूट के बारे में जानकारी न होना

#fairness

ऐसी स्थिति जिसमें संवेदनशील एट्रिब्यूट मौजूद हैं, लेकिन उन्हें ट्रेनिंग डेटा में शामिल नहीं किया गया है. संवेदनशील एट्रिब्यूट अक्सर किसी व्यक्ति के डेटा के अन्य एट्रिब्यूट से जुड़े होते हैं. इसलिए, संवेदनशील एट्रिब्यूट के बारे में जानकारी के बिना ट्रेन किया गया मॉडल, उस एट्रिब्यूट के लिए अलग-अलग असर डाल सकता है या निष्पक्षता से जुड़ी अन्य शर्तों का उल्लंघन कर सकता है.

अंडरफ़िटिंग

#fundamentals

अनुमान लगाने की खराब क्षमता वाला मॉडल बनाना, क्योंकि मॉडल ने ट्रेनिंग डेटा की जटिलता को पूरी तरह से कैप्चर नहीं किया है. कई समस्याओं की वजह से, मॉडल के परफ़ॉर्म न करने की समस्या हो सकती है. इनमें ये शामिल हैं:

अंडरसैंपलिंग

क्लास के असंतुलन वाले डेटासेट में, ज़्यादातर क्लास से उदाहरण हटाकर, ट्रेनिंग सेट को ज़्यादा संतुलित बनाया जा सकता है.

उदाहरण के लिए, ऐसे डेटासेट पर विचार करें जिसमें माइनॉरिटी क्लास के मुकाबले, मेजॉरिटी क्लास का अनुपात 20:1 है. इस क्लास के असंतुलन को दूर करने के लिए, एक ऐसा ट्रेनिंग सेट बनाया जा सकता है जिसमें माइनॉरिटी क्लास के सभी उदाहरण शामिल हों, लेकिन ज़्यादातर क्लास के सिर्फ़ एक-तिहाई उदाहरण शामिल हों. इससे ट्रेनिंग सेट के क्लास का अनुपात 2:1 हो जाएगा. कम सैंपलिंग की मदद से, बेहतर तरीके से संतुलित किए गए इस ट्रेनिंग सेट से बेहतर मॉडल बन सकता है. इसके अलावा, हो सकता है कि बेहतर तरीके से संतुलित किए गए इस ट्रेनिंग सेट में, असरदार मॉडल को ट्रेन करने के लिए ज़रूरत के मुताबिक उदाहरण न हों.

ओवरसैंपलिंग के साथ तुलना करें.

एकतरफ़ा

#language

यह एक ऐसा सिस्टम है जो सिर्फ़ टेक्स्ट के टारगेट सेक्शन से पहले मौजूद टेक्स्ट का आकलन करता है. इसके उलट, द्वि-दिशा वाला सिस्टम, टेक्स्ट के टारगेट सेक्शन से पहले और बाद के टेक्स्ट, दोनों का आकलन करता है. ज़्यादा जानकारी के लिए, दोतरफ़ा देखें.

यूनीडायरेक्शनल लैंग्वेज मॉडल

#language

भाषा मॉडल, जो टारगेट किए गए टोकन के बाद नहीं, बल्कि पहले दिखने वाले टोकन के आधार पर संभावनाओं का अनुमान लगाता है. दोतरफ़ा लैंग्वेज मॉडल के साथ तुलना करें.

बिना लेबल वाला उदाहरण

#fundamentals

ऐसा उदाहरण जिसमें सुविधाएं शामिल हैं, लेकिन कोई लेबल नहीं है. उदाहरण के लिए, नीचे दी गई टेबल में घर की वैल्यू तय करने वाले मॉडल के तीन ऐसे उदाहरण दिए गए हैं जिन पर लेबल नहीं लगा है. इनमें से हर उदाहरण में तीन फ़ीचर हैं, लेकिन घर की वैल्यू नहीं है:

कमरों की संख्या बाथरूम की संख्या घर की उम्र
3 2 15
2 1 72
4 2 34

सुपरवाइज़्ड मशीन लर्निंग में, मॉडल लेबल किए गए उदाहरणों पर ट्रेनिंग लेते हैं और लेबल नहीं किए गए उदाहरणों के आधार पर अनुमान लगाते हैं.

सेमी-सुपरवाइज़्ड और अनसुपरवाइज़्ड लर्निंग में, ट्रेनिंग के दौरान बिना लेबल वाले उदाहरणों का इस्तेमाल किया जाता है.

बिना लेबल वाले उदाहरण की तुलना लेबल वाले उदाहरण से करें.

अनसुपरवाइज़्ड मशीन लर्निंग

#clustering
#fundamentals

किसी डेटासेट में पैटर्न ढूंढने के लिए, मॉडल को ट्रेन करना. आम तौर पर, यह बिना लेबल वाला डेटासेट होता है.

बिना निगरानी वाली मशीन लर्निंग का सबसे सामान्य इस्तेमाल, डेटा को मिलते-जुलते उदाहरणों के ग्रुप में क्लस्टर करने के लिए किया जाता है. उदाहरण के लिए, बिना निगरानी वाले मशीन लर्निंग एल्गोरिदम, संगीत की अलग-अलग प्रॉपर्टी के आधार पर गाने को क्लस्टर कर सकता है. इस तरह से बनाए गए क्लस्टर, मशीन लर्निंग के अन्य एल्गोरिदम के लिए इनपुट बन सकते हैं. उदाहरण के लिए, संगीत के सुझाव देने वाली सेवा के लिए. जब काम के लेबल कम हों या न हों, तब क्लस्टर करने की सुविधा से मदद मिल सकती है. उदाहरण के लिए, गलत इस्तेमाल और धोखाधड़ी जैसे डोमेन में, क्लस्टर की मदद से, लोगों को डेटा को बेहतर तरीके से समझने में मदद मिल सकती है.

सुपरवाइज़्ड मशीन लर्निंग के साथ तुलना करें.

अपलिफ़्ट मॉडलिंग

मॉडलिंग की एक तकनीक, जिसका इस्तेमाल आम तौर पर मार्केटिंग में किया जाता है. यह किसी "व्यक्ति" पर "ट्रीटमेंट" के "कारण से होने वाले असर" (इसे "बढ़ोतरी वाला असर" भी कहा जाता है) का मॉडल बनाती है. यहां दो उदाहरण दिए गए हैं:

  • डॉक्टर, किसी इलाज के बाद मृत्यु दर में कमी (कौज़ल इफ़ेक्ट) का अनुमान लगाने के लिए, अपलिफ़्ट मॉडलिंग का इस्तेमाल कर सकते हैं. यह अनुमान, मरीज़ की उम्र और इलाज के इतिहास के आधार पर लगाया जाता है.
  • मार्केटर, किसी व्यक्ति (व्यक्तिगत) पर विज्ञापन (ट्रीटमेंट) की वजह से, खरीदारी की संभावना (क्यूज़ल इफ़ेक्ट) में बढ़ोतरी का अनुमान लगाने के लिए, अपलिफ़्ट मॉडलिंग का इस्तेमाल कर सकते हैं.

अपलिफ़्ट मॉडलिंग, क्लासिफ़िकेशन या रिग्रेशन से अलग होती है. इसकी वजह यह है कि अपलिफ़्ट मॉडलिंग में कुछ लेबल हमेशा मौजूद नहीं होते. उदाहरण के लिए, बाइनरी ट्रीटमेंट में आधे लेबल. उदाहरण के लिए, किसी मरीज़ को इलाज मिल सकता है या नहीं; इसलिए, हम इन दोनों स्थितियों में से सिर्फ़ एक में यह देख सकते हैं कि मरीज़ ठीक होगा या नहीं (दोनों में कभी नहीं). अपलिफ़्ट मॉडल का मुख्य फ़ायदा यह है कि यह बिना निगरानी वाली स्थिति (काउंटरफ़ैक्चुअल) के लिए अनुमान जनरेट कर सकता है और इसका इस्तेमाल, असर का हिसाब लगाने के लिए कर सकता है.

ज़्यादा अहमियत देना

डाउनसैंपल किए गए डेटा पर उतना ही वेट लागू करना जितना डाउनसैंपलिंग के लिए इस्तेमाल किया गया था.

उपयोगकर्ता मैट्रिक

#recsystems

सुझाव देने वाले सिस्टम में, मैट्रिक फ़ैक्टरिज़ेशन की मदद से जनरेट किया गया एम्बेडिंग वेक्टर, जो उपयोगकर्ता की प्राथमिकताओं के बारे में छिपे हुए सिग्नल रखता है. यूज़र मैट्रिक की हर लाइन में, किसी एक उपयोगकर्ता के लिए अलग-अलग लेटल सिग्नल की तुलनात्मक क्षमता के बारे में जानकारी होती है. उदाहरण के लिए, फ़िल्म के सुझाव देने वाला सिस्टम. इस सिस्टम में, यूज़र मैट्रिक्स में मौजूद लेटल सिग्नल, किसी खास शैली में हर उपयोगकर्ता की दिलचस्पी दिखा सकते हैं. इसके अलावा, ये ऐसे सिग्नल भी हो सकते हैं जिनका विश्लेषण करना मुश्किल हो, क्योंकि इनमें कई फ़ैक्टर के साथ जटिल इंटरैक्शन शामिल होते हैं.

यूज़र मैट्रिक में, हर लатент फ़ीचर के लिए एक कॉलम और हर उपयोगकर्ता के लिए एक लाइन होती है. इसका मतलब है कि उपयोगकर्ता मैट्रिक में उतनी ही पंक्तियां होती हैं जितनी टारगेट मैट्रिक में होती हैं. उदाहरण के लिए, अगर 1,000,000 उपयोगकर्ताओं के लिए मूवी के सुझाव देने वाला सिस्टम दिया गया है, तो उपयोगकर्ता मैट्रिक में 1,000,000 लाइनें होंगी.

V

वैलिडेशन

#fundamentals

किसी मॉडल की क्वालिटी का शुरुआती आकलन. पुष्टि करने की सुविधा, पुष्टि करने के लिए उपलब्ध डेटा सेट के आधार पर, मॉडल के अनुमान की क्वालिटी की जांच करती है.

पुष्टि करने वाला सेट, ट्रेनिंग सेट से अलग होता है. इसलिए, पुष्टि करने से ओवरफ़िटिंग से बचा जा सकता है.

पुष्टि करने वाले सेट के आधार पर मॉडल का आकलन करने को, टेस्टिंग के पहले राउंड के तौर पर और टेस्ट सेट के आधार पर मॉडल का आकलन करने को, टेस्टिंग के दूसरे राउंड के तौर पर देखा जा सकता है.

वैलिडेशन लॉस

#fundamentals

यह एक मेट्रिक है, जो किसी खास इटरेशन के दौरान, पुष्टि करने वाले सेट पर मॉडल के लॉस को दिखाती है.

जनरलाइज़ेशन कर्व भी देखें.

पुष्टि करने वाला सेट

#fundamentals

डेटासेट का सबसेट, जो ट्रेन किए गए मॉडल के लिए शुरुआती आकलन करता है. आम तौर पर, टेस्ट सेट के आधार पर मॉडल का आकलन करने से पहले, ट्रेन किए गए मॉडल का आकलन कई बार पुष्टि करने वाले सेट के आधार पर किया जाता है.

आम तौर पर, डेटासेट में मौजूद उदाहरणों को इन तीन अलग-अलग सबसेट में बांटा जाता है:

आम तौर पर, डेटासेट में मौजूद हर उदाहरण, पहले से मौजूद सबसेट में से सिर्फ़ एक से जुड़ा होना चाहिए. उदाहरण के लिए, कोई एक उदाहरण, ट्रेनिंग सेट और पुष्टि करने वाले सेट, दोनों में शामिल नहीं होना चाहिए.

वैल्यू का अनुमान लगाना

किसी वैल्यू को स्वीकार की जा सकने वाली वैल्यू से बदलने की प्रोसेस. अगर कोई वैल्यू मौजूद नहीं है, तो पूरे उदाहरण को खारिज किया जा सकता है या उदाहरण को ठीक करने के लिए, वैल्यू का अनुमान लगाने की सुविधा का इस्तेमाल किया जा सकता है.

उदाहरण के लिए, ऐसे डेटासेट पर विचार करें जिसमें temperature सुविधा शामिल है, जिसे हर घंटे रिकॉर्ड किया जाना चाहिए. हालांकि, तापमान की रीडिंग किसी खास घंटे के लिए उपलब्ध नहीं थी. यहां डेटासेट का एक सेक्शन दिया गया है:

टाइमस्टैंप तापमान
1680561000 10
1680564600 12
1680568200 मौजूद नहीं
1680571800 20
1680575400 21
1680579000 21

सिस्टम, छूटे हुए उदाहरण को मिटा सकता है या छूटे हुए तापमान को 12, 16, 18 या 20 के तौर पर लागू कर सकता है. यह लागू करने का तरीका, एल्गोरिदम पर निर्भर करता है.

वैनिशिंग ग्रेडिएंट की समस्या

#seq

कुछ डीप न्यूरल नेटवर्क की शुरुआती हाइडन लेयर के ग्रेडिएंट, आश्चर्यजनक रूप से सपाट (कम) हो जाते हैं. ग्रेडिएंट के कम होने पर, डीप न्यूरल नेटवर्क में नोड के वेट में ज़्यादा बदलाव नहीं होते. इस वजह से, मशीन लर्निंग की प्रोसेस धीमी हो जाती है या पूरी नहीं हो पाती. वैनिशिंग ग्रेडिएंट की समस्या वाले मॉडल को ट्रेन करना मुश्किल या असंभव हो जाता है. लंबी शॉर्ट-टर्म मेमोरी सेल इस समस्या को हल करती हैं.

एक्सप्लोडिंग ग्रेडिएंट की समस्या से तुलना करें.

वैरिएबल की अहमियत

#df

स्कोर का एक सेट, जो मॉडल के लिए हर फ़ीचर की अहमियत दिखाता है.

उदाहरण के लिए, एक फ़ैसला लेने वाले ट्री का इस्तेमाल करके, घर की कीमत का अनुमान लगाया जा सकता है. मान लें कि यह डिसीज़न ट्री, साइज़, उम्र, और स्टाइल जैसी तीन सुविधाओं का इस्तेमाल करता है. अगर तीन सुविधाओं के लिए वैरिएबल की अहमियत का सेट {size=5.8, age=2.5, style=4.7} के तौर पर कैलकुलेट किया जाता है, तो डिसीज़न ट्री के लिए साइज़, उम्र या स्टाइल से ज़्यादा अहम है.

वैरिएबल की अहमियत बताने वाली अलग-अलग मेट्रिक मौजूद हैं. इनसे एआई विशेषज्ञों को मॉडल के अलग-अलग पहलुओं के बारे में जानकारी मिल सकती है.

वैरिएशनल ऑटोएन्कोडर (VAE)

#language

ऑटोएन्कोडर का एक टाइप, जो इनपुट और आउटपुट के बीच के अंतर का फ़ायदा उठाकर, इनपुट के बदले हुए वर्शन जनरेट करता है. वैरिएशनल ऑटोएन्कोडर, जनरेटिव एआई के लिए काम के होते हैं.

वैरिएशनल इंफ़रेंस पर आधारित VAEs: यह किसी संभाव्यता मॉडल के पैरामीटर का अनुमान लगाने की तकनीक है.

वेक्टर

बहुत ज़्यादा इस्तेमाल किया जाने वाला शब्द, जिसका मतलब गणित और विज्ञान के अलग-अलग क्षेत्रों में अलग-अलग होता है. मशीन लर्निंग में, वेक्टर की दो प्रॉपर्टी होती हैं:

  • डेटा टाइप: मशीन लर्निंग में वेक्टर में आम तौर पर फ़्लोटिंग-पॉइंट नंबर होते हैं.
  • एलिमेंट की संख्या: यह वेक्टर की लंबाई या उसका डाइमेंशन होता है.

उदाहरण के लिए, एक फ़ीचर वेक्टर लें जिसमें आठ फ़्लोटिंग-पॉइंट वैल्यू हों. इस फ़ीचर वेक्टर की लंबाई या डाइमेंशन आठ है. ध्यान दें कि मशीन लर्निंग वेक्टर में अक्सर बहुत ज़्यादा डाइमेंशन होते हैं.

कई तरह की जानकारी को वेक्टर के तौर पर दिखाया जा सकता है. उदाहरण के लिए:

  • पृथ्वी की सतह पर किसी भी जगह की जानकारी को दो डाइमेंशन वाले वैक्टर के तौर पर दिखाया जा सकता है. इसमें एक डाइमेंशन अक्षांश और दूसरा डाइमेंशन देशांतर होता है.
  • 500 शेयरों की मौजूदा कीमतों को 500 डाइमेंशन वाले वेक्टर के तौर पर दिखाया जा सकता है.
  • सीमित संख्या वाली क्लास के लिए, प्रॉबबिलिटी डिस्ट्रिब्यूशन को वेक्टर के तौर पर दिखाया जा सकता है. उदाहरण के लिए, मल्टीक्लास क्लासिफ़िकेशन सिस्टम, तीन में से किसी एक आउटपुट कलर (लाल, हरा या पीला) का अनुमान लगाता है. यह सिस्टम, वैक्टर (0.3, 0.2, 0.5) को P[red]=0.3, P[green]=0.2, P[yellow]=0.5 के तौर पर आउटपुट कर सकता है.

वेक्टर को आपस में जोड़ा जा सकता है. इसलिए, अलग-अलग तरह के मीडिया को एक ही वेक्टर के तौर पर दिखाया जा सकता है. कुछ मॉडल सीधे तौर पर कई वन-हॉट एन्कोडिंग को जोड़कर काम करते हैं.

TPUs जैसे खास प्रोसेसर, वैक्टर पर गणितीय ऑपरेशन करने के लिए ऑप्टिमाइज़ किए जाते हैं.

वेक्टर, रैंक 1 का टेंसर होता है.

W

वासरस्टीन लॉस

जनरेटिव अडवर्सेरी नेटवर्क में आम तौर पर इस्तेमाल किया जाने वाला लॉस फ़ंक्शन. यह जनरेट किए गए डेटा और असल डेटा के डिस्ट्रिब्यूशन के बीच ईअर्थ मूवर की दूरी पर आधारित होता है.

वज़न का डेटा

#fundamentals

वह वैल्यू जिसे मॉडल किसी दूसरी वैल्यू से गुणा करता है. ट्रेनिंग, मॉडल के आदर्श वेट तय करने की प्रोसेस है. अनुमान, अनुमान लगाने के लिए, उन वेट का इस्तेमाल करने की प्रोसेस है जिन्हें मॉडल ने सीखा है.

वेटेड ऐल्टरनेटिंग लीस्ट स्क्वेयर (WALS)

#recsystems

सुझाव देने वाले सिस्टम में, मैट्रिक फ़ैक्टोराइज़ेशन के दौरान मकसद के फ़ंक्शन को कम करने के लिए एल्गोरिदम. इससे, मौजूद न होने वाले उदाहरणों को कम अहमियत दी जा सकती है. WALS, ओरिजनल मैट्रिक्स और फिर से बनाए गए मैट्रिक्स के बीच, वज़न वाले स्क्वेयर्ड एरर को कम करता है. इसके लिए, यह पंक्ति के फ़ैक्टर और कॉलम के फ़ैक्टर को ठीक करके, बारी-बारी से काम करता है. इनमें से हर ऑप्टिमाइज़ेशन को, कम से कम स्क्वेयर्स कॉन्वेक्स ऑप्टिमाइज़ेशन से हल किया जा सकता है. ज़्यादा जानकारी के लिए, सुझाव देने वाले सिस्टम का कोर्स देखें.

वेटेड योग

#fundamentals

काम की सभी इनपुट वैल्यू का योग, जिनमें उनके वज़न को शामिल किया गया है. उदाहरण के लिए, मान लें कि काम के इनपुट में ये शामिल हैं:

इनपुट वैल्यू इनपुट वज़न
2 -1.3
-1 0.6
3 0.4

इसलिए, अहमियत के हिसाब से कुल वैल्यू यह होगी:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

अहमियत के हिसाब से जोड़ा गया योग, ऐक्टिवेशन फ़ंक्शन का इनपुट आर्ग्युमेंट होता है.

वाइड मॉडल

एक लीनियर मॉडल, जिसमें आम तौर पर कई स्पैर्स इनपुट फ़ीचर होते हैं. हम इसे "वाइड" कहते हैं, क्योंकि ऐसा मॉडल एक खास तरह का न्यूरल नेटवर्क होता है. इसमें बहुत ज़्यादा इनपुट होते हैं, जो सीधे आउटपुट नोड से कनेक्ट होते हैं. डीप मॉडल के मुकाबले, वाइड मॉडल को डीबग करना और उनकी जांच करना अक्सर आसान होता है. हालांकि, वाइड मॉडल, छिपी हुई लेयर की मदद से, नॉन-लाइनियरिटी को एक्सप्रैस नहीं कर सकते, लेकिन वे अलग-अलग तरीकों से नॉन-लाइनियरिटी को मॉडल करने के लिए, फ़ीचर क्रॉसिंग और बकेटाइज़ेशन जैसे ट्रांसफ़ॉर्मेशन का इस्तेमाल कर सकते हैं.

डीप मॉडल के साथ तुलना करें.

चौड़ाई

न्यूरल नेटवर्क की किसी खास लेयर में न्यूरॉन की संख्या.

ज़्यादा लोगों की राय

#df

इस सिद्धांत के मुताबिक, लोगों के बड़े ग्रुप ("क्राउड") की राय या अनुमानों का औसत निकालने से, अक्सर बेहतर नतीजे मिलते हैं. उदाहरण के लिए, एक गेम में लोग यह अनुमान लगाते हैं कि एक बड़े जार में कितनी जेली बीन्स पैक की गई हैं. हालांकि, ज़्यादातर लोगों के अनुमान गलत होंगे, लेकिन सभी अनुमान का औसत, जार में मौजूद जेली बीन की असल संख्या के काफ़ी करीब होता है.

एनसेंबल, भीड़ की बुद्धि का सॉफ़्टवेयर ऐनलॉग है. भले ही, अलग-अलग मॉडल काफ़ी गलत अनुमान लगाते हों, लेकिन कई मॉडल के अनुमान का औसत निकालने से, अक्सर काफ़ी अच्छे अनुमान मिलते हैं. उदाहरण के लिए, हो सकता है कि कोई एक फ़ैसला लेने वाला ट्री खराब अनुमान लगाए, लेकिन फ़ैसला लेने वाला फ़ॉरेस्ट अक्सर बहुत अच्छे अनुमान लगाता है.

शब्दों को एम्बेड करना

#language

प्रतिनिधित्व करने के लिए, किसी वर्ड सेट में मौजूद हर शब्द को एम्बेडिंग वेक्टर में डाला जाता है. इसका मतलब है कि हर शब्द को 0.0 से 1.0 के बीच की फ़्लोटिंग-पॉइंट वैल्यू के वेक्टर के तौर पर दिखाया जाता है. मिलते-जुलते मतलब वाले शब्दों के बीच, अलग-अलग मतलब वाले शब्दों के मुकाबले ज़्यादा समानता होती है. उदाहरण के लिए, गाजर, सेलेरी, और ककड़ी, सभी के लिए एक जैसे विज़ुअल इस्तेमाल किए जा सकते हैं. हालांकि, ये विज़ुअल हवाई जहाज़, सनग्लास, और टूथपेस्ट के विज़ुअल से काफ़ी अलग होंगे.

X

XLA (Accelerated Linear Algebra)

जीपीयू, सीपीयू, और एमएल ऐक्सेलरेटर के लिए, ओपन-सोर्स मशीन लर्निंग कंपाइलर.

XLA कंपाइलर, PyTorch, TensorFlow, और JAX जैसे लोकप्रिय एमएल फ़्रेमवर्क से मॉडल लेता है. साथ ही, उन्हें अलग-अलग हार्डवेयर प्लैटफ़ॉर्म पर बेहतर परफ़ॉर्मेंस के लिए ऑप्टिमाइज़ करता है. इन प्लैटफ़ॉर्म में जीपीयू, सीपीयू, और एमएल ऐक्सेलरेटर शामिल हैं.

Z

ज़ीरो-शॉट लर्निंग

मशीन लर्निंग की एक तरह की ट्रेनिंग, जिसमें मॉडल किसी ऐसे टास्क के लिए अनुमान लगाता है जिसके लिए उसे पहले ट्रेन नहीं किया गया था. दूसरे शब्दों में, मॉडल को किसी टास्क के लिए, ट्रेनिंग के उदाहरण नहीं दिए जाते. हालांकि, उस टास्क के लिए उससे अनुमान लगाने के लिए कहा जाता है.

बिना उदाहरण वाला प्रॉम्प्ट

#language
#generativeAI

ऐसा प्रॉम्प्ट जिसमें यह उदाहरण नहीं दिया गया हो कि आपको लार्ज लैंग्वेज मॉडल से किस तरह का जवाब चाहिए. उदाहरण के लिए:

एक प्रॉम्प्ट के हिस्से नोट
चुने गए देश की आधिकारिक मुद्रा क्या है? वह सवाल जिसका जवाब आपको एलएलएम से चाहिए.
भारत: असल क्वेरी.

लार्ज लैंग्वेज मॉडल इनमें से किसी भी तरह का जवाब दे सकता है:

  • रुपया
  • INR
  • भारतीय रुपया
  • रुपया
  • भारतीय रुपया

सभी जवाब सही हैं. हालांकि, हो सकता है कि आप किसी खास फ़ॉर्मैट को प्राथमिकता दें.

ज़ीरो-शॉट प्रॉम्प्टिंग की तुलना इन शब्दों से करें:

ज़ेड-स्कोर नॉर्मलाइज़ेशन

#fundamentals

स्केलिंग की एक तकनीक, जो किसी रॉ फ़ीचर वैल्यू को फ़्लोटिंग-पॉइंट वैल्यू से बदलती है. यह वैल्यू, उस फ़ीचर के माध्य से स्टैंडर्ड डेविएशन की संख्या दिखाती है. उदाहरण के लिए, मान लें कि किसी सुविधा का औसत 800 है और उसका स्टैंडर्ड वैरिएशन 100 है. नीचे दी गई टेबल में दिखाया गया है कि Z-स्कोर नॉर्मलाइज़ेशन, रॉ वैल्यू को अपने Z-स्कोर पर कैसे मैप करेगा:

असल वैल्यू Z-स्कोर
800 0
950 +1.5
575 -2.25

इसके बाद, मशीन लर्निंग मॉडल, रॉ वैल्यू के बजाय उस सुविधा के लिए Z-स्कोर पर ट्रेनिंग करता है.