मशीन लर्निंग ग्लॉसरी

इस ग्लॉसरी में मशीन लर्निंग के सामान्य शब्दों और TensorFlow के लिए खास शब्द हैं.

A

एब्लेशन

किसी सुविधा की अहमियत का आकलन करने की तकनीक या कॉम्पोनेंट को कुछ समय के लिए हटाकर, मॉडल से जोड़ा जा सकता है. आप फिर मॉडल को उस सुविधा या कॉम्पोनेंट के बिना फिर से ट्रेनिंग दें. इसके अलावा, अगर मॉडल को फिर से ट्रेनिंग दी गई है बहुत खराब परफ़ॉर्म करता है, फिर हटाई गई सुविधा या कॉम्पोनेंट बहुत ज़रूरी हो सकता है.

उदाहरण के लिए, मान लीजिए कि आपने क्लासिफ़िकेशन मॉडल 10 सुविधाओं पर काम करती है और 88% सटीक होती है टेस्ट सेट. अहमियत देखने के लिए सुविधा की मदद से, मॉडल को फिर से ट्रेनिंग देने के लिए, सुविधाएँ. यदि पुनः ट्रेन किया गया मॉडल काफ़ी खराब प्रदर्शन करता है (उदाहरण के लिए, 55% सटीक है), तो शायद हटाई गई सुविधा ज़रूरी थी. इसके उलट, अगर उसके बाद वाला मॉडल उतना ही अच्छा परफ़ॉर्म करता है, तो वह सुविधा शायद ज़रूरी नहीं है.

एब्लेशन इन चीज़ों की अहमियत जानने में भी मदद कर सकता है:

  • बड़े कॉम्पोनेंट, जैसे कि किसी बड़े एमएल सिस्टम का पूरा सबसिस्टम
  • प्रोसेस या तकनीकें, जैसे कि डेटा प्रीप्रोसेसिंग का चरण

दोनों ही मामलों में, आपको यह पता चलेगा कि सिस्टम की परफ़ॉर्मेंस में बदलता नहीं है).

A/B टेस्टिंग

दो या उससे ज़्यादा तकनीकों की तुलना करने का आंकड़ों का तरीका—A और B. आम तौर पर, A एक मौजूदा तकनीक है और B एक नई तकनीक है. A/B टेस्टिंग से सिर्फ़ यह पता नहीं चलता कि कौनसी तकनीक बेहतर परफ़ॉर्म करती है लेकिन यह भी कि यह अंतर आंकड़ों के हिसाब से अहम है या नहीं.

आम तौर पर, A/B टेस्टिंग में दो तकनीकों पर एक मेट्रिक की तुलना की जाती है; उदाहरण के लिए, दो मॉडल के बीच सटीक होने की तुलना कैसे की जाती है का इस्तेमाल करना है? हालांकि, A/B टेस्टिंग मेट्रिक.

ऐक्सेलरेटर चिप

#GoogleCloud

हार्डवेयर के खास कॉम्पोनेंट की कैटगरी, जिसे अहम काम करने के लिए डिज़ाइन किया गया है डीप लर्निंग एल्गोरिदम के लिए कंप्यूटेशन (कंप्यूटेशन) की ज़रूरत होती है.

ऐक्सेलरेटर चिप (या कम शब्दों में कहें, तो ऐक्सेलरेटर) बहुत ज़्यादा काम करते हैं ट्रेनिंग और अनुमान के टास्क करने की रफ़्तार और क्षमता को बढ़ाता है अलग-अलग कामों के लिए इस्तेमाल किए जाने वाले सीपीयू की तुलना में. ट्रेनिंग के लिए सबसे सही न्यूरल नेटवर्क और इसी तरह के कम्प्यूटेशनल नेटवर्क वाले टास्क होते हैं.

ऐक्सेलरेटर चिप के उदाहरणों में ये शामिल हैं:

  • खास हार्डवेयर के साथ Google की Tensor प्रोसेसिंग यूनिट (TPU) का इस्तेमाल किया जा सकता है.
  • NVIDIA के जीपीयू, जिन्हें शुरुआत में ग्राफ़िक प्रोसेसिंग के लिए डिज़ाइन किया गया था, साथ ही, समानांतर प्रोसेसिंग को चालू करने के लिए डिज़ाइन किया गया है, जो प्रोसेसिंग की स्पीड को बढ़ा देगा.

सटीक

#fundamentals

सही क्लासिफ़िकेशन के अनुमान की संख्या को भाग देने पर मिलने वाली संख्या दिखाता है. यानी:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

उदाहरण के लिए, ऐसा मॉडल जिसने 40 सही अनुमान लगाए और 10 गलत अनुमान लगाए अनुमानों के सटीक होने की यह जानकारी होगी:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

बाइनरी क्लासिफ़िकेशन में कुछ खास नाम दिए जाते हैं सही अनुमानों की अलग-अलग कैटगरी के लिए और गलत अनुमान. इसलिए, द्विआधारी (बाइनरी) वर्गीकरण का सटीक फ़ॉर्मूला नीचे दिया गया है:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

कहां:

सटीक होने की तुलना सटीक और फिर से याद करें.

कैटगरी तय करना: सटीक होना, बाज़ार से हटाना, सटीक और संबंधित मेट्रिक देखें.

ऐक्शन गेम

#rl

रीइंफ़ोर्समेंट लर्निंग में, वह तकनीक जिससे एजेंट इस स्थिति के राज्यों के बीच ट्रांज़िशन एनवायरमेंट. एजेंट, नीति.

ऐक्टिवेशन फ़ंक्शन

#fundamentals

यह एक ऐसा फ़ंक्शन है जो न्यूरल नेटवर्क को यह सीखने में मदद करता है nonlinear सुविधाओं के बीच का जटिल संबंध और लेबल.

ऐक्टिवेशन से जुड़े लोकप्रिय फ़ंक्शन में ये शामिल हैं:

ऐक्टिवेशन फ़ंक्शन के प्लॉट कभी भी सीधी लाइन नहीं होते हैं. उदाहरण के लिए, ReLU ऐक्टिवेशन फ़ंक्शन के प्लॉट में ये शामिल हैं दो सीधी रेखाएं:

दो पंक्तियों वाला कार्टिज़न प्लॉट. पहली पंक्ति में कोई नियतांक है
          0 का y मान, जो x-ऐक्सिस के साथ -infinity,0 से 0,-0 तक चल रहा है.
          दूसरी लाइन 0,0 से शुरू होती है. इस पंक्ति का स्लोप +1 है, इसलिए
          यह 0,0 से लेकर +इनफ़िनिटी,+अनंत तक चलता है.

सिगमॉइड ऐक्टिवेशन फ़ंक्शन का प्लॉट इस तरह दिखता है:

दो डाइमेंशन वाला कर्व प्लॉट, जिसमें डोमेन में मौजूद x वैल्यू मौजूद हैं
          -अंतरंग से +धनात्मक, जबकि y के मान करीब 0 से लेकर
          करीब 1. जब x का मान 0 होता है, तो y का मान 0.5 होता है. कर्व का स्लोप हमेशा होता है
          पॉज़िटिव, सबसे ज़्यादा ढलान के साथ 0,0.5 और धीरे-धीरे घटता जा रहा है
          x का निरपेक्ष मान बढ़ने पर स्लोप.

न्यूरल नेटवर्क: ऐक्टिवेशन देखें फ़ंक्शन देखें.

ऐक्टिव लर्निंग

ट्रेनिंग का एक तरीका, जिसमें एल्गोरिदम कुछ डेटा को चुनता है, जिससे वह सीखता है. एक्टिव लर्निंग खास तौर पर तब अहम होता है, जब लेबल किए गए उदाहरण उन्हें हासिल करना मुश्किल या महंगा होता है. बिना किसी भेदभाव के अलग-अलग तरह के लोगों को ढूंढने के बजाय लेबल किए गए उदाहरणों की रेंज, जिनमें एक ऐक्टिव लर्निंग एल्गोरिदम की मदद से चुनिंदा उदाहरण खोजे गए हैं. सीखने के लिए ज़रूरी उदाहरणों की रेंज.

AdaGrad

यह एक शानदार ग्रेडिएंट डिसेंट एल्गोरिदम है, जो हर पैरामीटर के ग्रेडिएंट, जो हर पैरामीटर को असरदार तरीके से देता है एक स्वतंत्र लर्निंग रेट. पूरी जानकारी के लिए, यह देखें यह Adagrad पेपर.

एजेंट

#rl

रीइंफ़ोर्समेंट लर्निंग में, वह इकाई जो नीति से, प्रॉडक्ट लौटाने की अनुमानित संख्या को बढ़ाया जा सकता है एक से ज़्यादा देशों के बीच एनवायरमेंट.

आम तौर पर, एजेंट ऐसा सॉफ़्टवेयर होता है जो अपने-आप लागू होता है किसी लक्ष्य को पूरा करने के लिए कार्रवाइयों की सीरीज़, जिसमें बदलावों के हिसाब से खुद को ढालने की क्षमता होती है पर्यावरण को ध्यान में रखकर बनाया गया है. उदाहरण के लिए, LLM आधारित एजेंट, एलएलएम का इस्तेमाल करके, रीइन्फ़ोर्समेंट लर्निंग की नीति लागू करने के बजाय प्लान बनाया.

एगलोमेरेटिव क्लस्टरिंग

#clustering

हैरारकल क्लस्टरिंग देखें.

गड़बड़ी की पहचान करना

आउटलायर की पहचान करने की प्रोसेस. उदाहरण के लिए, अगर माध्य किसी खास सुविधा के लिए, 100 है और 10 का मानक विचलन 10 है, तो, गड़बड़ी की पहचान करने की सुविधा से 200 की वैल्यू को संदिग्ध के तौर पर फ़्लैग करना चाहिए.

AR

ऑगमेंटेड रिएलिटी (एआर) का छोटा नाम.

पीआर कर्व के नीचे का क्षेत्र

PR AUC (पीआर कर्व के दायरे में आने वाला क्षेत्र) देखें.

आरओसी कर्व के दायरे वाला क्षेत्रफल

AUC (आरओसी कर्व के दायरे वाला क्षेत्र) देखें.

आर्टिफ़िशियल जनरल इंटेलिजेंस

एक ऐसा गैर-मानवीय तरीका जो समस्या हल करने के अलग-अलग तरीकों को दिखाता है, और ज़रूरत के हिसाब से ढलने की क्षमता हो. उदाहरण के लिए, आर्टिफ़िशियल इंटेलिजेंस से जुड़ा कोई प्रोग्राम जनरल इंटेलिजेंस, टेक्स्ट का अनुवाद कर सकता है, सिंफ़नी कंपोज़ कर सकता है और बेहतरीन काम कर सकता है ऐसे गेम जिनका अभी तक आविष्कार नहीं हुआ है.

आर्टिफ़िशियल इंटेलिजेंस

#fundamentals

कोई ऐसा प्रोग्राम या मॉडल जो मुश्किल कामों को हल कर सके. उदाहरण के लिए, टेक्स्ट का अनुवाद करने वाला प्रोग्राम या मॉडल या ऐसा प्रोग्राम या मॉडल जो रेडियोलॉजिक इमेज से बीमारियों की पहचान करता है. साथ ही, दोनों में आर्टिफ़िशियल इंटेलिजेंस का इस्तेमाल होता है.

आम तौर पर, मशीन लर्निंग, आर्टिफ़िशियल इंटेलिजेंस का एक सब-फ़ील्ड है हो सकता है. हालांकि, हाल ही के सालों में, कुछ संगठनों ने आर्टिफ़िशियल इंटेलिजेंस और मशीन लर्निंग शब्दों का इस्तेमाल एक-दूसरे की जगह पर किया जा सकता है.

ध्यान देना

#language

न्यूरल नेटवर्क में इस्तेमाल किया जाने वाला एक तरीका, जो किसी खास शब्द या शब्द के किसी हिस्से की अहमियत. ध्यान कंप्रेस करना जानकारी की वह मात्रा जिसकी ज़रूरत किसी मॉडल को अगले टोकन/शब्द का अनुमान लगाने के लिए होती है. ध्यान देने के एक सामान्य तरीके में ये चीज़ें शामिल हो सकती हैं वेटेड योग, इनपुट के सेट के ऊपर होता है, जहां हर इनपुट के लिए वेट की गणना न्यूरल नेटवर्क.

खुद का ध्यान रखना और मल्टी-हेड सेल्फ़-अटेंशन ट्रांसफ़ॉर्मर के बिल्डिंग ब्लॉक.

एलएलएम: बड़ी भाषा कौनसी होती है मॉडल? देखें.

विशेषता

#fairness

feature के लिए समानार्थी शब्द.

मशीन लर्निंग में निष्पक्षता में, एट्रिब्यूट का मतलब किसी व्यक्ति से जुड़ी विशेषताएं.

एट्रिब्यूट सैंपलिंग

#df

फ़ैसले लेने के लिए उपलब्ध जंगल को ट्रेनिंग देने की रणनीति, जिसमें हर डिसिज़न ट्री में, संभावित नतीजों के सिर्फ़ एक सबसेट का इस्तेमाल किया जाता है स्थिति देखते समय, सुविधाएं का इस्तेमाल करें. आम तौर पर, हर एक सुविधा के लिए अलग-अलग सुविधाओं के सबसेट का सैंपल लिया जाता है नोड. इसके उलट, डिसिज़न ट्री को ट्रेनिंग देते समय एट्रिब्यूट सैंपलिंग के बिना, हर नोड के लिए सभी संभावित सुविधाओं पर विचार किया जाता है.

AUC (आरओसी कर्व के नीचे का क्षेत्र)

#fundamentals

0.0 और 1.0 के बीच की कोई संख्या, जो बाइनरी क्लासिफ़िकेशन मॉडल का पॉज़िटिव क्लास को इनसे अलग करने की क्षमता नेगेटिव क्लास. AUC 1.0 के जितना करीब होता है, मॉडल की अलग करने की क्षमता उतनी ही बेहतर होती है एक-दूसरे से क्लास.

उदाहरण के लिए, नीचे दिए गए इलस्ट्रेशन में क्लासिफ़ायर मॉडल दिखाया गया है जो पॉज़िटिव क्लास (हरे अंडाकार) को नेगेटिव क्लास से अलग करती है (बैंगनी आयत) सही तरीके से लिखें. असल दुनिया से परे एक शानदार मॉडल 1.0 का AUC:

ऐसी संख्या रेखा जिसमें एक तरफ़ 8 पॉज़िटिव उदाहरण दिए गए हों और
          दूसरी तरफ़ 9 नेगेटिव उदाहरण.

इसके उलट, नीचे दिया गया इलस्ट्रेशन, क्लासिफ़ायर के लिए नतीजे दिखाता है बिना किसी क्रम के नतीजे जनरेट करने वाला मॉडल हो सकता है. इस मॉडल का AUC 0.5 है:

छह पॉज़िटिव उदाहरणों और छह नेगेटिव उदाहरणों वाली संख्या लाइन.
          उदाहरणों का क्रम पॉज़िटिव, नेगेटिव,
          पॉज़िटिव, नेगेटिव, पॉज़िटिव, नेगेटिव, पॉज़िटिव, नेगेटिव, पॉज़िटिव
          नेगेटिव, पॉज़िटिव, नेगेटिव.

हां, पिछले मॉडल का AUC 0.5 है, न कि 0.0.

ज़्यादातर मॉडल दो चरम सीमाओं के बीच में होते हैं. उदाहरण के लिए, यह मॉडल, पॉज़िटिव को नेगेटिव से कुछ अलग करता है. इसलिए का AUC 0.5 और 1.0 के बीच होता है:

छह पॉज़िटिव उदाहरणों और छह नेगेटिव उदाहरणों वाली संख्या लाइन.
          उदाहरणों का क्रम नेगेटिव, नेगेटिव, नेगेटिव, नेगेटिव,
          पॉज़िटिव, नेगेटिव, पॉज़िटिव, पॉज़िटिव, नेगेटिव, पॉज़िटिव, पॉज़िटिव,
          सकारात्मक.

AUC हर उस वैल्यू को अनदेखा कर देता है जिसके लिए आपने वैल्यू सेट की है क्लासिफ़िकेशन थ्रेशोल्ड. इसके बजाय, AUC सभी संभावित क्लासिफ़िकेशन थ्रेशोल्ड को ध्यान में रखता है.

क्लासिफ़िकेशन: ROC और AUC देखें.

संवर्धित वास्तविकता

#image

एक ऐसी टेक्नोलॉजी जो उपयोगकर्ता के व्यू पर कंप्यूटर से जनरेट की गई इमेज को सुपरइंपोज़ करती है जिसमें असली दुनिया का ज़िक्र किया गया हो.

ऑटोएन्कोडर

#language
#image

यह एक ऐसा सिस्टम है जो इनपुट. ऑटोएन्कोडर, एन्कोडर और डीकोडर. ऑटोएन्कोडर, नीचे दी गई दो चरणों वाली प्रोसेस पर भरोसा करते हैं:

  1. एन्कोडर, इनपुट को (आम तौर पर) कम-डाइमेंशन वाले कम-डाइमेंशन वाले मोड में मैप करता है (इंटरमीडिएट) फ़ॉर्मैट में.
  2. डिकोडर, मैप करके मूल इनपुट का नुकसान पहुंचाने वाला वर्शन बनाता है लोअर-डाइमेंशन वाला फ़ॉर्मैट और ओरिजनल हाई-डाइमेंशन वाला फ़ॉर्मैट इनपुट प्रारूप.

ऑटोएन्कोडर को शुरू से आखिर तक ट्रेनिंग दी जाती है. ऐसा करने के लिए वे डिकोडर की मदद लेते हैं एन्कोडर के इंटरमीडिएट फ़ॉर्मैट से ओरिजनल इनपुट को फिर से बनाएं जितना संभव हो सके. क्योंकि इंटरमीडिएट फ़ॉर्मैट छोटा होता है (लोअर-डाइमेंशन) मूल फ़ॉर्मैट की तुलना में, ऑटोएन्कोडर ज़बरदस्ती लागू होता है यह जानने के लिए कि इनपुट में कौन-सी जानकारी आवश्यक है और आउटपुट पूरी तरह से इनपुट के समान हो.

उदाहरण के लिए:

  • अगर इनपुट डेटा ग्राफ़िक है, तो पूरी तरह से सटीक नहीं होने वाली कॉपी इसके समान होगी में ओरिजनल ग्राफ़िक था, लेकिन उसमें कुछ बदलाव किए गए थे. शायद नॉन-एग्ज़ैक्ट कॉपी जो मूल ग्राफ़िक से शोर को हटा देती है या अपने-आप जानकारी भर जाती है कुछ पिक्सल मौजूद नहीं हैं.
  • अगर इनपुट डेटा टेक्स्ट है, तो ऑटोएन्कोडर ऐसा नया टेक्स्ट जनरेट करेगा जो मूल टेक्स्ट जैसा ही है, लेकिन इसके जैसा नहीं है.

अलग-अलग ऑटोएन्कोडर भी देखें.

ऑटोमेशन पर बायस

#fairness

जब फ़ैसला लेने वाला कोई व्यक्ति बिना ऑटोमेशन के इस्तेमाल की जाने वाली जानकारी पर फ़ैसला लेने वाला सिस्टम, जब अपने-आप फ़ैसला लेने वाला सिस्टम गड़बड़ियां करता है.

निष्पक्षता: के प्रकार देखें पक्षपात देखें.

AutoML

मशीन लर्निंग बनाने के लिए, अपने-आप काम करने वाली कोई भी प्रोसेस मॉडल. AutoML अपने-आप ये काम कर सकता है:

AutoML, डेटा साइंटिस्ट के लिए काम का है, क्योंकि यह उनका समय बचाता है और हम मशीन लर्निंग पाइपलाइन को डेवलप करने और नतीजों के अनुमान को बेहतर बनाने की कोशिश कर रहे हैं ज़्यादा सटीक होता है. यह उनके लिए भी उपयोगी है जो विशेषज्ञ नहीं हैं, क्योंकि मशीन लर्निंग के टास्क उनके लिए ज़्यादा सुलभ हैं.

ऑटोमेटेड मशीन लर्निंग (AutoML) देखें.

ऑटो-रिग्रेसिव मॉडल

#language
#image
#generativeAI

ऐसा मॉडल जो अपने पिछले अनुमान के आधार पर अनुमान लगाता है सुझाव. उदाहरण के लिए, ऑटो-रिग्रेसिव लैंग्वेज मॉडल अगले पहले से अनुमानित टोकन के आधार पर टोकन. Transformer-आधारित सभी बड़े लैंग्वेज मॉडल अपने-आप रिग्रेटिव होते हैं.

इसके उलट, GAN पर आधारित इमेज मॉडल आम तौर पर ऑटो-रिग्रेसिव नहीं होते क्योंकि वे सिंगल फ़ॉरवर्ड-पास में इमेज जनरेट करते हैं, न कि बार-बार चरण पूरे करें. हालांकि, इमेज जनरेट करने वाले कुछ मॉडल ऑटो-रिग्रेसिव होते हैं, क्योंकि वे चरणों में इमेज जनरेट करते हैं.

सहायक नुकसान

लॉस फ़ंक्शन—इसका इस्तेमाल किसी न्यूरल नेटवर्क मॉडल का मुख्य लॉस फ़ंक्शन—इससे ट्रेनिंग को तेज़ शुरुआती इटरेशन, जब वेट रैंडम तरीके से शुरू किए जाते हैं.

सहायक लॉस फ़ंक्शन असरदार ग्रेडिएंट देते हैं पिछली लेयर में. इससे मदद मिलती है ट्रेनिंग के दौरान कन्वर्ज़न ग्रेडिएंट की समस्या को हल करके किया जा सकता है.

औसत सटीक

नतीजों के रैंक किए गए क्रम की परफ़ॉर्मेंस की खास जानकारी देने वाली मेट्रिक. औसत शुद्धता का पता लगाने के लिए हर काम के नतीजे के लिए सटीक वैल्यू (हर नतीजे को पिछले नतीजे के मुकाबले, रैंक की गई ऐसी सूची जिसमें प्रॉडक्ट को बाज़ार से हटाए जाने की संख्या बढ़ती है).

पीआर कर्व के दायरे में आने का क्षेत्र भी देखें.

ऐक्सिस से अलाइन की गई स्थिति

#df

डिसिज़न ट्री में, एक स्थिति जिसमें सिर्फ़ एक सुविधा शामिल हो. उदाहरण के लिए, अगर क्षेत्र एक सुविधा है, तो नीचे दी गई शर्त ऐक्सिस से अलाइन की गई होगी:

area > 200

तिरछी स्थिति से कंट्रास्ट करें.

B

अभी तक किसी भी व्यक्ति ने चेक इन नहीं किया है

बैकप्रोपगेशन

#fundamentals

लागू करने वाला एल्गोरिदम ग्रेडिएंट डिसेंट में न्यूरल नेटवर्क.

न्यूरल नेटवर्क को ट्रेनिंग देने के लिए, कई दोहरावों की ज़रूरत होती है जिससे नीचे दिए गए दो-पास चक्र में बदलाव हो सकता है:

  1. फ़ॉरवर्ड पास के दौरान, सिस्टम इतने बैच को प्रोसेस करता है अनुमान लगाने के लिए, उदाहरण. सिस्टम हर एक की तुलना करता है हर label वैल्यू के लिए अनुमान. इनके बीच अंतर अनुमान और लेबल की वैल्यू, उस उदाहरण के लिए लॉस है. सिस्टम, सभी उदाहरणों के लिए लॉस को एग्रीगेट करता है, ताकि कुल वैल्यू का पता लगाया जा सके वर्तमान बैच के लिए हानि.
  2. बैकवर्ड पास (बैकप्रॉपगेशन) के दौरान, सिस्टम नुकसान को इतने कम कर देता है: सभी न्यूरॉन के वेट को अडजस्ट करके, छिपी हुई लेयर.

न्यूरल नेटवर्क में अक्सर कई छिपी हुई लेयर में कई न्यूरॉन होते हैं. उनमें से हर एक न्यूरॉन अलग-अलग तरीकों से कुल नुकसान में योगदान देता है. बैकप्रोपगेशन से तय होता है कि वज़न को बढ़ाना है या कम करना है कुछ न्यूरॉन पर लागू होते हैं.

लर्निंग रेट एक मल्टीप्लायर है, जो वह डिग्री जिस पर हर बैकवर्ड पास हर वज़न को बढ़ाता या घटाता है. सीखने की बड़ी दर, हर वज़न को सीखने की कम दर.

कैलक्युलस के शब्दों में, बैकप्रोपगेशन प्रोसेस को चेन रूल. कैलक्युलस से हटाएं. इसका मतलब यह है कि बैकप्रोपगेशन, गड़बड़ी का पार्शियल डेरिवेटिव पैरामीटर के हिसाब से वैल्यू डालें.

कई साल पहले, मशीन लर्निंग इस्तेमाल करने वाले लोगों को बैकप्रॉपगेशन लागू करने के लिए कोड लिखना पड़ता था. Keras जैसे मॉडर्न एमएल एपीआई, अब आपके लिए बैकप्रोपैगेशन की सुविधा लागू करते हैं. वाह!

न्यूरल नेटवर्क देखें देखें.

बैगिंग

#df

किसी असेंबली को ट्रेन करने का तरीका, जहां हर मॉडल की मदद से ट्रेनिंग के किसी रैंडम सबसेट को ट्रेनिंग दी जाती है उदाहरण रीप्लेसमेंट की मदद से सैंपल किए गए. उदाहरण के लिए, रैंडम फ़ॉरेस्ट डिसिज़न ट्री को बैग बनाने की ट्रेनिंग दी गई.

बैगिंग शब्द बूटस्ट्रैप aggregateing के लिए छोटा है.

रैंडम फ़ॉरेस्ट देखें पर जाएं.

शब्दों का झोंका

#language

किसी वाक्यांश या पैसेज में शब्दों को निरूपण, वह चाहे किसी भी क्रम में हो. उदाहरण के लिए, शब्दों का बैग आगे दिए गए तीन वाक्यांशों को समान रूप से:

  • कुत्ता उछलता है
  • जंप द डॉग
  • कुत्ता उछलता है

हर शब्द को स्पार्स वेक्टर के इंडेक्स से मैप किया जाता है, जहां वेक्टर में शब्दावली के हर शब्द का इंडेक्स होता है. उदाहरण के लिए, वाक्यांश द डॉग जंप, एक ऐसे फ़ीचर वेक्टर में मैप किया गया है जिसमें शून्य शून्य नहीं है the, dogfood, और शब्दों से संबंधित तीन इंडेक्स पर वैल्यू जंप. शून्य के अलावा, इनमें से कोई भी वैल्यू हो सकती है:

  • किसी शब्द की मौजूदगी को दिखाने के लिए 1.
  • बैग में कोई शब्द कितनी बार दिखता है. उदाहरण के लिए, अगर इस वाक्यांश को लिखा जा सकता है मरून फ़र वाला मरून फ़र वाला कुत्ता, तो दोनों मरून और कुत्ते को 2 से दिखाया जाएगा, जबकि दूसरे शब्दों को को 1 के तौर पर दिखाया जाएगा.
  • कुछ अन्य वैल्यू, जैसे कि इस संख्या की गणना का लॉगारिद्म बैग में कोई शब्द कब दिखता है.

आधारभूत

किसी मॉडल का इस्तेमाल रेफ़रंस पॉइंट के तौर पर किया जाता है. इससे यह तुलना की जाती है कि दूसरे मॉडल मॉडल (आम तौर पर, ज़्यादा जटिल मॉडल) परफ़ॉर्म कर रहा है. उदाहरण के लिए, लॉजिस्टिक रिग्रेशन मॉडल का इस्तेमाल डीप मॉडल के लिए अच्छी बेसलाइन बनाई गई है.

किसी खास समस्या के लिए, बेसलाइन इस्तेमाल करने से मॉडल डेवलपर को परफ़ॉर्मेंस का आकलन करने में मदद मिलती है वह परफ़ॉर्मेंस सबसे कम है जो नए मॉडल को नए परफ़ॉर्मेंस के लिए हासिल करनी चाहिए मॉडल उपयोगी होता है.

बैच

#fundamentals

एक ट्रेनिंग में इस्तेमाल किए गए उदाहरण का सेट दोहराव. बैच साइज़, बैच.

बैच किस तरह से जुड़ा होता है, यह जानने के लिए epoch देखें epoch का इस्तेमाल करें.

लीनियर रिग्रेशन: हाइपर पैरामीटर देखें.

बैच अनुमान

#TensorFlow
#GoogleCloud

एक से ज़्यादा यूआरएल पर अनुमान लगाने की प्रोसेस बिना लेबल वाले उदाहरण को छोटे-छोटे हिस्सों में बांटा गया सबसेट ("बैच").

बैच अनुमान की सुविधा, दोनों को साथ में इस्तेमाल करने की सुविधाओं का फ़ायदा ले सकती है ऐक्सेलरेटर चिप. इसका मतलब है कि एक से ज़्यादा ऐक्सेलरेटर एक साथ बिना लेबल वाले अलग-अलग बैच के अनुमानों का अनुमान लगा सकता है इसके उदाहरण हैं, जिससे हर सेकंड में अनुमानों की संख्या में बहुत तेज़ी से बढ़ोतरी होती है.

प्रोडक्शन एमएल सिस्टम: स्टैटिक बनाम डाइनैमिक देखें अनुमान देखें.

बैच नॉर्मलाइज़ेशन

इसके इनपुट या आउटपुट को नॉर्मलाइज़ करना इसमें ऐक्टिवेशन फ़ंक्शन छिपी हुई लेयर. बैच नॉर्मलाइज़ेशन की सुविधा ये फ़ायदे देते हैं:

बैच का आकार

#fundamentals

किसी बैच में उदाहरण की संख्या. उदाहरण के लिए, अगर बैच का साइज़ 100 है, तो मॉडल हर दोहराव के 100 उदाहरण.

बैच साइज़ की लोकप्रिय रणनीतियां इस तरह से हैं:

  • स्टोकायस्टिक ग्रेडिएंट डिसेंट (एसजीडी), जिसमें बैच का साइज़ 1 है.
  • पूरा बैच, जिसमें बैच का साइज़, उन सभी उदाहरणों की संख्या है ट्रेनिंग सेट. उदाहरण के लिए, अगर ट्रेनिंग सेट 10 लाख उदाहरण हैं, तो बैच का साइज़ 10 लाख होगा उदाहरण. आम तौर पर, एक साथ पूरी बैच बनाने की रणनीति, आम तौर पर गलत तरीके से काम करती है.
  • मिनी-बैच, जिसमें बैच का साइज़ आम तौर पर इनके बीच में होता है 10 और 1000 है. आम तौर पर, मिनी-बैच सबसे असरदार तरीका है.

ज़्यादा जानकारी के लिए, यहां देखें:

बेज़ियन न्यूरल नेटवर्क

एक संभावित न्यूरल नेटवर्क जो वेट और आउटपुट में अनिश्चितता है. स्टैंडर्ड न्यूरल नेटवर्क रिग्रेशन मॉडल आम तौर पर, अदिश वैल्यू का अनुमान लगाता है; उदाहरण के लिए, कोई स्टैंडर्ड मॉडल घर की कीमत का अनुमान लगाता है कुल 8,53,000 हो सकते हैं. इसके उलट, बेज़ियन न्यूरल नेटवर्क, वैल्यू; उदाहरण के लिए, बेज़ियन मॉडल 8,53,000 के घर की कीमत का अनुमान 67,200 का मानक विचलन.

बेज़ियन न्यूरल नेटवर्क, रिसर्च के लिए बेयस थ्योरम भार और अनुमानों में अनिश्चितता की गणना करने के लिए. बेज़ियन न्यूरल नेटवर्क तब फ़ायदेमंद साबित हो सकता है, जब अनिश्चितता का आकलन करना ज़रूरी हो, जैसे कि दवाइयों से जुड़े मॉडल. बेज़ियन न्यूरल नेटवर्क से भी मदद मिल सकती है ओवरफ़िटिंग से बचें.

बेज़ियन ऑप्टिमाइज़ेशन

प्रॉबेब्लिस्टिक रिग्रेशन मॉडल कम्प्यूटेशनल महंगाई को ऑप्टिमाइज़ करने की तकनीक सरोगेट को ऑप्टिमाइज़ करने के बजाय, मकसद फ़ंक्शन जो बेज़ियन लर्निंग तकनीक की मदद से, अनिश्चितता को मापते हैं. से बेज़ियन ऑप्टिमाइज़ेशन अपने-आप में बहुत महंगा होता है. आम तौर पर, इसका इस्तेमाल ऑप्टिमाइज़ करने के लिए किया जाता है ऐसे टास्क जिनका आकलन बहुत कम किया जाता हो और जिनमें बहुत कम पैरामीटर हों, जैसे कि हाइपर पैरामीटर चुनकर.

बेलमैन इक्वेशन

#rl

रीइन्फ़ोर्समेंट लर्निंग में, यहां दी गई पहचान, सबसे सही तरीके से Q-फ़ंक्शन:

\[Q(s, a) = r(s, a) + \gamma \mathbb{E}_{s'|s,a} \max_{a'} Q(s', a')\]

रीइन्फ़ोर्समेंट लर्निंग एल्गोरिदम इसे लागू करते हैं पहचान की पुष्टि करने के लिए, नीचे दिए गए अपडेट के नियम का इस्तेमाल करके, Q-learning बनाएं:

\[Q(s,a) \gets Q(s,a) + \alpha \left[r(s,a) + \gamma \displaystyle\max_{\substack{a_1}} Q(s',a') - Q(s,a) \right] \]

रीइन्फ़ोर्समेंट लर्निंग के अलावा, बेलमैन इक्वेशन का इस्तेमाल डाइनैमिक प्रोग्रामिंग. ज़्यादा जानकारी के लिए, बेलमैन समीकरण के लिए Wikipedia एंट्री.

BERT (बायडायरेक्शनल एन्कोडर) ट्रांसफ़ॉर्मर की ओर से प्रतिनिधित्व)

#language

टेक्स्ट प्रज़ेंटेशन के लिए मॉडल आर्किटेक्चर. एक प्रशिक्षित BERT मॉडल, टेक्स्ट की कैटगरी तय करने के लिए बड़े मॉडल के हिस्से के तौर पर काम कर सकता है या मशीन लर्निंग के लिए दिए गए अन्य टास्क भी शामिल हैं.

BERT की विशेषताएं ये हैं:

BERT के वैरिएंट में ये शामिल हैं:

  • ALBERT, जो A Light BERT का छोटा नाम है.
  • LaBSE.

ओपन सोर्सिंग BERT: नैचुरल लैंग्वेज के लिए प्री-ट्रेनिंग की स्थिति देखें प्रोसेस जारी है देखें.

पक्षपात (नैतिक/निष्पक्षता)

#fairness
#fundamentals

1. कुछ चीज़ों, लोगों, या ग्रुप में शामिल हैं. इन पक्षपातों से संग्रह और डेटा की व्याख्या, सिस्टम का डिज़ाइन, और उपयोगकर्ता कैसे इंटरैक्ट करते हैं इस्तेमाल किया जा सकता है. इस तरह के पूर्वाग्रह में ये शामिल हैं:

2. सैंपलिंग या रिपोर्टिंग की प्रोसेस के दौरान सिस्टम में कोई गड़बड़ी हुई. इस तरह के पूर्वाग्रह में ये शामिल हैं:

मशीन लर्निंग मॉडल में इसे बायस टर्म न समझें या पूर्वानुमान के मापदंड.

निष्पक्षता: के प्रकार देखें पक्षपात इन ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स देखें.

बायस (गणित) या बायस टर्म

#fundamentals

किसी ऑरिजिन से कोई रुकावट या ऑफ़सेट. पूर्वाग्रह मशीन लर्निंग मॉडल को दर्शाता है, जिसे फ़ॉलो किया जा रहा है:

  • b
  • w0

उदाहरण के लिए, इस फ़ॉर्मूला में पूर्वाग्रह b है:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

एक सामान्य द्वि-आयामी रेखा में, पक्षपात का मतलब "y-इंटरसेप्ट" है. उदाहरण के लिए, इस इलस्ट्रेशन में लाइन का बायस 2 है.

0.5 के स्लोप और 2 के बायस (y-इंटरसेप्ट) वाली लाइन का प्लॉट.

पूर्वाग्रह मौजूद है क्योंकि सभी मॉडल ऑरिजिन (0,0) से शुरू नहीं होते. उदाहरण के लिए, मान लें कि किसी मनोरंजन पार्क में प्रवेश करने के लिए 2 यूरो का शुल्क लगता है और होटल के हर घंटे के लिए 0.5 यूरो. इसलिए, कुल लागत का बायस 2 है, क्योंकि सबसे कम लागत 2 यूरो है.

पूर्वाग्रह को नैतिकता और निष्पक्षता में पक्षपात से नहीं समझा जाना चाहिए या पूर्वानुमान के मापदंड.

लीनियर रिग्रेशन देखें देखें.

दोतरफ़ा

#language

ऐसे सिस्टम के लिए इस्तेमाल किया जाने वाला शब्द जो उस टेक्स्ट का आकलन करता है जो पहले, दोनों फ़ॉर्मैट में था और टेक्स्ट के टारगेट सेक्शन का फ़ॉलो करता है. इसके उलट, सिर्फ़ एकतरफ़ा सिस्टम उस टेक्स्ट का आकलन करता है जो टेक्स्ट के टारगेट सेक्शन से पीछे होता है.

उदाहरण के लिए, मास्क की गई भाषा के किसी मॉडल पर विचार करें को अंडरलाइन करने वाले शब्द या शब्दों के लिए प्रायिकता तय करनी चाहिए नीचे दिया गया सवाल:

_____ आपके साथ क्या है?

एकतरफ़ा भाषा वाले मॉडल को सिर्फ़ अपनी प्रायिकताओं को आधार बनाना होगा "What", "is", और "the" शब्दों से मिलने वाले संदर्भ के आधार पर. इसके उलट, एक द्विदिशात्मक भाषा मॉडल भी "के साथ" से संदर्भ पा सकता है और "आप", इससे मॉडल को बेहतर अनुमान लगाने में मदद मिल सकती है.

दो-तरफ़ा लैंग्वेज मॉडल

#language

भाषा का ऐसा मॉडल जो यह संभावना बताता है कि दिया गया टोकन दिए गए स्थान पर पहले से मौजूद और फ़ॉलो किया जा रहा टेक्स्ट.

बिगम

#seq
#language

कोई N-ग्राम, जिसमें N=2 हो.

बाइनरी क्लासिफ़िकेशन

#fundamentals

यह एक तरह का क्लासिफ़िकेशन टास्क है, जो दो म्युचुअली एक्सक्लूसिव क्लास में से किसी एक का अनुमान लगाता है:

उदाहरण के लिए, नीचे दिए गए दो मशीन लर्निंग मॉडल में से हर एक बाइनरी क्लासिफ़िकेशन:

  • वह मॉडल जो तय करता है कि ईमेल मैसेज स्पैम (पॉज़िटिव क्लास) या स्पैम नहीं है (नेगेटिव क्लास).
  • मेडिकल लक्षणों की जांच करने वाला मॉडल, ताकि यह पता लगाया जा सके कि व्यक्ति को कोई खास बीमारी है (पॉज़िटिव क्लास) या कोई बीमारी नहीं है बीमारी (नेगेटिव क्लास).

एक से ज़्यादा क्लास वाले क्लासिफ़िकेशन से अलग करें.

लॉजिस्टिक रिग्रेशन और क्लासिफ़िकेशन थ्रेशोल्ड.

कैटगरी तय करना देखें देखें.

बाइनरी कंडीशन

#df

डिसिज़न ट्री में, एक स्थिति इसके दो संभावित नतीजे होंगे, आम तौर पर हां या नहीं. उदाहरण के लिए, नीचे दी गई बाइनरी शर्त है:

temperature >= 100

नॉन-बाइनरी कंडिशन से कंट्रास्ट करें.

शर्तें किस तरह की हैं देखें पर जाएं.

बिनिंग

बकेटिंग का समानार्थी शब्द.

BLEU (बाइलिंगुअल इवैलुएशन अंडरस्टडी)

#language

0.0 और 1.0 के बीच का स्कोर, जो अनुवाद की क्वालिटी दिखाता है दो मैन्युअल भाषाओं के बीच स्विच करता है. उदाहरण के लिए, अंग्रेज़ी और रशियन. ए BLEU 1.0 का स्कोर बताता है कि अनुवाद सही है; 0.0 का BLEU स्कोर बताता है कि बहुत खराब अनुवाद किया है.

बूस्टिंग

एक ऐसी मशीन लर्निंग तकनीक जो बार-बार आसान और बहुत सटीक क्लासिफ़ायर नहीं होते (जिन्हें "कमज़ोर" क्लासिफ़ायर कहा जाता है) द्वारा क्लासिफ़ायर (एक "मज़बूत" क्लासिफ़ायर) उन उदाहरणों को बढ़ावा देना जिन्हें मॉडल फ़िलहाल लागू कर रहा है गलत कैटगरी में रखा गया है.

ग्रेडिएंट बूस्ट किया गया फ़ैसला देखें पेड़? पर जाएं.

बाउंडिंग बॉक्स

#image

किसी इमेज में, रेक्टैंगल के (x, y) निर्देशांक का इस्तेमाल करके, पसंद है, जैसे कि नीचे दी गई इमेज में कुत्ता.

सोफ़े पर बैठे कुत्ते की फ़ोटो. हरे रंग का बाउंडिंग बॉक्स
          (275, 1271) और बॉटम-राइट के टॉप-लेफ़्ट कोऑर्डिनेट के साथ
          के निर्देशांक (2954, 2761) कुत्ते के शरीर को घेरते हैं

ब्रॉडकास्ट किया जा रहा है

किसी मैट्रिक्स गणित की कार्रवाई में ऑपरेंड के आकार को इतना बड़ा करना डाइमेंशन का इस्तेमाल किया जा सकता है. उदाहरण के लिए, रैखिक बीजगणित के लिए किसी आव्यूह में जोड़े जाने वाले दो संक्रियाओं की ज़रूरत होती है एक जैसे डाइमेंशन होने चाहिए. इस कारण, आप आकार का आव्यूह नहीं जोड़ सकते (m, n) से लेकर n लंबाई वाले वेक्टर तक. ब्रॉडकास्ट करने से यह कार्रवाई चालू हो जाती है: n लंबाई के सदिश को आभासी रूप से आकार के आव्यूह (m, n) तक बढ़ाना हर कॉलम में समान वैल्यू को रेप्लिकेट करना.

उदाहरण के लिए, नीचे दी गई परिभाषाओं में, लीनियर बीजगणित की अनुमति नहीं है A+B, क्योंकि A और B के डाइमेंशन अलग-अलग हैं:

A = [[7, 10, 4],
     [13, 5, 9]]
B = [2]

हालांकि, ब्रॉडकास्ट करने पर B कार्रवाई को वर्चुअल तौर पर बड़ा करके यह ऑपरेशन A+B चालू हो जाता है:

 [[2, 2, 2],
  [2, 2, 2]]

इसलिए, A+B अब एक मान्य कार्रवाई है:

[[7, 10, 4],  +  [[2, 2, 2],  =  [[ 9, 12, 6],
 [13, 5, 9]]      [2, 2, 2]]      [15, 7, 11]]

नीचे दी गई जानकारी देखें. ज़्यादा जानकारी के लिए, NumPy पर ब्रॉडकास्ट करना

बकेटिंग

#fundamentals

किसी एक सुविधा को एक से ज़्यादा बाइनरी सुविधाओं में बदलना जिसे बकेट या बिन कहा जाता है, जो आम तौर पर वैल्यू की रेंज के हिसाब से तय होती है. कटी हुई सुविधा आम तौर पर लगातार बदलाव करने की सुविधा.

उदाहरण के लिए, तापमान को एक के तौर पर दिखाने के बजाय लगातार फ़्लोटिंग-पॉइंट सुविधा की मदद से, आप तापमान की रेंज को काट सकते हैं अलग-अलग कैटगरी में बांटना, जैसे:

  • <= 10 डिग्री सेल्सियस का तापमान "ठंडा" रहेगा बकेट.
  • तापमान 11 से 24 डिग्री सेल्सियस के बीच रहेगा. यह "सामान्य तापमान" रहेगा बकेट.
  • >= 25 डिग्री सेल्सियस का तापमान "गर्म" रहेगा बकेट.

यह मॉडल, एक ही बकेट में मौजूद हर वैल्यू को एक जैसा मानेगा. इसके लिए उदाहरण के लिए, 13 और 22, दोनों ही समशीतोष्ण बकेट में हैं, इसलिए मॉडल, दोनों वैल्यू को एक जैसा रखता है.

संख्या वाला डेटा देखें: बिनिंग देखें.

C

कैलिब्रेशन लेयर

अनुमान के बाद होने वाला अडजस्टमेंट, आम तौर पर पूर्वाग्रह. समायोजित पूर्वानुमान और प्रायिकता का मिलान लेबल के मॉनिटर किए गए सेट के डिस्ट्रिब्यूशन से होना चाहिए.

कैंडिडेट जनरेशन

#recsystems

सुझावों का शुरुआती सेट जिसे सुझाव देने वाला सिस्टम. उदाहरण के लिए, किताबों की दुकान, जहां 1,00,000 किताबें मिलती हैं. कैंडिडेट जनरेशन फ़ेज़ की मदद से उदाहरण के लिए, किसी एक उपयोगकर्ता के लिए काम आने वाली किताबों की एक छोटी सूची, जैसे कि 500. हालांकि, फिर किसी व्यक्ति को 500 किताबें खरीदने का सुझाव देने के लिए, बहुत ज़्यादा किताबें हैं. बाद में, ज़्यादा महंगा, सुझाव देने वाले सिस्टम के चरण, जैसे कि स्कोरिंग और री-रैंकिंग) से, उन 500 को घटाकर बहुत छोटा कर दिया जाएगा, सुझावों का ज़्यादा उपयोगी सेट.

उम्मीदवार का जनरेट करना देखें खास जानकारी देखें.

कैंडिडेट सैंपलिंग

ट्रेनिंग के समय का ऑप्टिमाइज़ेशन, जो सभी पॉज़िटिव लेबल का इस्तेमाल करें. उदाहरण के लिए, softmax, लेकिन सिर्फ़ रैंडम नेगेटिव लेबल का सैंपल. उदाहरण के लिए, लेबल किया गया बीगल और डॉग, कैंडिडेट सैंपलिंग से अनुमानित संभावनाओं की गिनती की जाती है और इनके लिए नुकसान की शर्तों को पूरा करना होगा:

  • बीगल
  • कुत्ता
  • बाकी नेगेटिव क्लास का रैंडम सबसेट (उदाहरण के लिए, cat, लॉलीपॉप, fence).

विचार यह है कि नेगेटिव क्लास कम मौकों से सीख सकती हैं नेगेटिव रिइन्फ़ोर्समेंट जब तक कि पॉज़िटिव क्लास में हमेशा सही कॉन्टेंट होता है का पालन करते हैं, और इसे वास्तव में अनुभव के आधार पर देखा जाता है.

ट्रेनिंग एल्गोरिदम की तुलना में, कैंडिडेट सैंपलिंग की सुविधा ज़्यादा बेहतर तरीके से काम करती है जो सभी नेगेटिव क्लास के लिए अनुमानों को कैलकुलेट करता है. खास तौर पर, ऐसा तब होता है, जब नेगेटिव क्लास की संख्या बहुत ज़्यादा है.

कैटगरी से जुड़ा डेटा

#fundamentals

सुविधाएं, जिनमें संभावित वैल्यू का एक खास सेट हो. उदाहरण के लिए, traffic-light-state नाम की एक ऐसी कैटगरी वाली सुविधा का इस्तेमाल करें जो सिर्फ़ इनमें से कोई एक वैल्यू हो सकती है:

  • red
  • yellow
  • green

traffic-light-state को कैटगरी वाली सुविधा के तौर पर दिखाकर, मॉडल यह सीख सकता है: ड्राइवर के व्यवहार पर red, green, और yellow का अलग-अलग असर हुआ है.

कैटगरी के लेवल की विशेषताओं को कभी-कभी कहा जाता है अलग-अलग सुविधाओं का इस्तेमाल करें.

संख्या के हिसाब से डेटा से अलग होना चाहिए.

कैटगरिकल कैटगरी के साथ काम करना देखें डेटा देखें.

कॉज़ल लैंग्वेज मॉडल

#language

एकतरफ़ा लैंग्वेज मॉडल का समानार्थी शब्द.

इसके लिए, दो-तरफ़ा भाषा का मॉडल देखें लैंग्वेज मॉडलिंग में, अलग-अलग दिव्यांगों के लिए अलग-अलग तरीके अपनाए.

सेंट्रोइड

#clustering

क्लस्टर का केंद्र, जिसे k-means या k-median एल्गोरिदम. जैसे, अगर k की वैल्यू 3 है, तो k-मीन या k-median एल्गोरिदम, तीन सेंट्रोइड ढूंढता है.

क्लस्टरिंग एल्गोरिदम देखें ज़्यादा जानकारी के लिए क्लस्टरिंग कोर्स में जाएं.

सेंट्रोइड-बेस्ड क्लस्टरिंग

#clustering

क्लस्टरिंग एल्गोरिदम की कैटगरी, जो डेटा को व्यवस्थित करती है बिना हैरारकी वाले क्लस्टर में बांटा जा सकता है. k-मीन सबसे ज़्यादा ने सेंट्रोइड-आधारित क्लस्टरिंग एल्गोरिदम का इस्तेमाल किया.

हैरारकल क्लस्टरिंग से अलग एल्गोरिदम पर काम करता है.

क्लस्टरिंग एल्गोरिदम देखें ज़्यादा जानकारी के लिए क्लस्टरिंग कोर्स में जाएं.

चेन-ऑफ़-थॉट प्रॉम्प्ट

#language
#generativeAI

एक प्रॉम्प्ट इंजीनियरिंग तकनीक, जो एक बड़े लैंग्वेज मॉडल (एलएलएम) में, जो तर्क के साथ, सिलसिलेवार तरीक़े से. उदाहरण के लिए, नीचे दिए गए प्रॉम्प्ट के हिसाब से पेमेंट करें दूसरे वाक्य पर विशेष ध्यान दें:

0 से 60 के बीच की दूरी पर जाने वाली किसी कार में, ड्राइवर को कितने g बल लगा सकते हैं 7 सेकंड में मील प्रति घंटा? जवाब में, काम के सभी कैलकुलेशन दिखाएं.

एलएलएम से ये जवाब मिल सकते हैं:

  • वैल्यू 0, 60, और 7 जोड़ते हुए, फ़िज़िक्स के फ़ॉर्मूले का क्रम दिखाएं ज़रूरत के हिसाब से डाला जा सकता है.
  • बताएं कि इसने वे फ़ॉर्मूले क्यों चुने और अलग-अलग वैरिएबल का क्या मतलब है.

चेन-ऑफ़-विचार, एलएलएम को सभी कैलकुलेशन करने के लिए मजबूर करता है, इससे आपको ज़्यादा सही जवाब मिल सकता है. इसके अलावा, एक के बाद एक कई प्रॉम्प्ट की मदद से, लोग एलएलएम के चरणों की जांच करके यह पता लगा सकते हैं कि क्या भी जवाब सही नहीं है.

चैट

#language
#generativeAI

मशीन लर्निंग सिस्टम (एमएल सिस्टम) के साथ होने वाली लगातार होने वाली बातचीत का कॉन्टेंट. आम तौर पर, बड़ा लैंग्वेज मॉडल. चैट में की गई पिछली बातचीत (आपने क्या टाइप किया और बड़े लैंग्वेज मॉडल ने कैसे जवाब दिया) संदर्भ भी शामिल करें.

चैटबॉट, बड़े लैंग्वेज मॉडल का ऐप्लिकेशन है.

COVID-19 की जांच के लिए बनी चेकपोस्ट

ऐसा डेटा जो किसी मॉडल के पैरामीटर की स्थिति को कैप्चर करता है ट्रेनिंग के दौरान या ट्रेनिंग पूरी होने के बाद. उदाहरण के लिए, ट्रेनिंग के दौरान, तो ये काम किए जा सकते हैं:

  1. शायद जान-बूझकर या कसरत बंद करने के पीछे ये वजहें हो सकती हैं की वजह से हो सकता है.
  2. चेकपॉइंट कैप्चर करें.
  3. इसके बाद, चेकपॉइंट को फिर से लोड करें. ऐसा किसी दूसरे हार्डवेयर पर किया जा सकता है.
  4. ट्रेनिंग फिर से शुरू करें.

क्लास

#fundamentals

वह कैटगरी जो लेबल से जुड़ी हो सकती है. उदाहरण के लिए:

क्लासिफ़िकेशन मॉडल, क्लास का अनुमान लगाता है. इसके उलट, रिग्रेशन मॉडल किसी संख्या का अनुमान लगाता है देखी जा सकती है.

कैटगरी तय करना देखें देखें.

क्लासिफ़िकेशन मॉडल

#fundamentals

कोई मॉडल, जिसका अनुमान क्लास के तौर पर होता है. उदाहरण के लिए, ये सभी क्लासिफ़िकेशन मॉडल नीचे दिए गए हैं:

  • इनपुट वाक्य की भाषा का अनुमान लगाने वाला मॉडल (फ़्रेंच? स्पैनिश? इटैलियन?).
  • ऐसा मॉडल जो पेड़ों की प्रजातियों का अनुमान लगाता है (मेपल? ओक? बेओबैब?).
  • ऐसा मॉडल जो किसी खास क्लास के लिए पॉज़िटिव या नेगेटिव क्लास का अनुमान लगाता है बीमारी.

इसके उलट, रिग्रेशन मॉडल संख्याओं का अनुमान लगाते हैं की मदद से ज़्यादा काम किया जा सकता है.

क्लासिफ़िकेशन मॉडल आम तौर पर दो तरह के होते हैं:

श्रेणी में बाँटने की सीमा

#fundamentals

बाइनरी क्लासिफ़िकेशन में, 0 से 1 के बीच की संख्या, जो लॉजिस्टिक रिग्रेशन मॉडल या तो पॉज़िटिव क्लास का अनुमान लगाकर या नेगेटिव क्लास. ध्यान दें कि क्लासिफ़िकेशन थ्रेशोल्ड वह वैल्यू है जिसे कोई व्यक्ति चुनता है, नहीं, बल्कि मॉडल ट्रेनिंग के दौरान चुनी गई वैल्यू हो.

लॉजिस्टिक रिग्रेशन मॉडल, 0 और 1 के बीच का रॉ वैल्यू देता है. इसके बाद:

  • अगर यह रॉ वैल्यू, क्लासिफ़िकेशन थ्रेशोल्ड से ज़्यादा है, तो पॉज़िटिव क्लास का अनुमान लगाया जाता है.
  • अगर यह रॉ वैल्यू, डेटा को कैटगरी में बांटने के लिए तय की गई थ्रेशोल्ड से कम है, तो नेगेटिव क्लास का अनुमान लगाया जाता है.

उदाहरण के लिए, मान लीजिए कि क्लासिफ़िकेशन थ्रेशोल्ड 0.8 है. अगर रॉ वैल्यू 0.9 है, तो मॉडल पॉज़िटिव क्लास का अनुमान लगाता है. अगर रॉ वैल्यू 0.7 है, तो मॉडल नेगेटिव क्लास का अनुमान लगाता है.

क्लासिफ़िकेशन थ्रेशोल्ड का चुनाव, आपके विज्ञापनों की संख्या फ़ॉल्स पॉज़िटिव और फ़ॉल्स नेगेटिव.

थ्रेशोल्ड और गड़बड़ी के बारे में जानकारी देखें मैट्रिक्स देखें.

वर्ग-असंतुलित डेटासेट

#fundamentals

क्लासिफ़िकेशन सवाल के लिए डेटासेट, जिसमें कुल संख्या हर क्लास के लेबल में काफ़ी अंतर होता है. उदाहरण के लिए, एक बाइनरी क्लासिफ़िकेशन डेटासेट पर विचार करें जिसके दो लेबल इन्हें इस तरह से बांटा गया है:

  • 10,00,000 नेगेटिव लेबल
  • 10 पॉज़िटिव लेबल

नेगेटिव और पॉज़िटिव लेबल का अनुपात 1,00, 000 बनाम 1 है. एक वर्ग असंतुलित डेटासेट है.

इसके उलट, नीचे दिया गया डेटासेट क्लास असंतुलित नहीं है, क्योंकि नेगेटिव लेबल और पॉज़िटिव लेबल का अनुपात 1 के करीब है:

  • 517 नेगेटिव लेबल
  • 483 पॉज़िटिव लेबल

कई क्लास वाले डेटासेट को क्लास-असंतुलित भी माना जा सकता है. उदाहरण के लिए, निम्न मल्टी-क्लास क्लासिफ़िकेशन डेटासेट भी क्लास असंतुलित है, क्योंकि एक लेबल में अन्य दो की तुलना में कहीं ज़्यादा उदाहरण हैं:

  • "हरे रंग" क्लास वाले 10,00,000 लेबल
  • "बैंगनी" क्लास वाले 200 लेबल
  • "नारंगी" क्लास वाले 350 लेबल

एंट्रॉपी, मैजरिटी क्लास, और अल्पसंख्यक वर्ग के नाम से जाना जाता है.

क्लिपिंग

#fundamentals

एक ऐसी तकनीक जिसकी मदद से आउटलायर को हैंडल किया जा सकता है. इनमें से कोई एक या दोनों शर्तें:

  • सुविधा की उन वैल्यू को कम करना जो तय की गई सबसे ज़्यादा वैल्यू से ज़्यादा हैं उस सीमा तक कम कर दें.
  • उस सीमा तक कम से कम थ्रेशोल्ड से भी कम में सुविधा की वैल्यू बढ़ाना कम से कम थ्रेशोल्ड.

उदाहरण के लिए, मान लें कि किसी खास सुविधा के मान का <0.5% मान कम होता है 40–60 की सीमा के बाहर है. इस स्थिति में, ये काम किए जा सकते हैं:

  • अगर सभी वैल्यू 60 (ज़्यादा से ज़्यादा थ्रेशोल्ड) से ज़्यादा हैं, तो उन्हें 60 करने के लिए क्लिप करें.
  • अगर वैल्यू 40 (कम से कम थ्रेशोल्ड) से कम है, तो उसे 40 करने के लिए क्लिप करें.

आउटलायर की वजह से, मॉडल को नुकसान पहुंच सकता है. इसकी वजह से कभी-कभी वेट की परफ़ॉर्मेंस होती है ट्रेनिंग के दौरान ओवरफ़्लो हो सकता है. कुछ आउटलायर्स भी आपकी परफ़ॉर्मेंस को खराब कर सकते हैं सटीक होने जैसे मेट्रिक. क्लिप बनाना, सीमित करने की सामान्य तकनीक है कोई नुकसान नहीं पहुंचाता है.

ग्रेडिएंट क्लिपिंग फ़ोर्स ट्रेनिंग के दौरान, तय की गई रेंज में ग्रेडिएंट वैल्यू.

संख्या वाला डेटा देखें: नॉर्मलाइज़ेशन देखें.

Cloud TPU

#TensorFlow
#GoogleCloud

मशीन की स्पीड बढ़ाने के लिए बनाया गया एक खास हार्डवेयर ऐक्सेलरेटर सीखने-सिखाने से जुड़े वर्कलोड.

क्लस्टरिंग

#clustering

ग्रुप करने से जुड़े उदाहरण, खास तौर पर अनसुपरवाइज़्ड लर्निंग. सभी उदाहरण के लिए, ग्रुप बनाए गए हैं और कोई व्यक्ति वैकल्पिक रूप से हर क्लस्टर का मतलब बता सकता है.

कई क्लस्टरिंग एल्गोरिदम मौजूद हैं. उदाहरण के लिए, k-means एल्गोरिदम क्लस्टर की मदद से, सेंट्रोइड, जैसा कि इस डायग्राम में दिखाया गया है:

एक दो डाइमेंशन वाला ग्राफ़, जिसमें x-ऐक्सिस पर पेड़ की चौड़ाई का लेबल होता है,
          और y-ऐक्सिस को ट्री की ऊंचाई के तौर पर लेबल किया जाता है. ग्राफ़ में दो
          सेंट्रोइड और कई दर्जन डेटा पॉइंट. डेटा पॉइंट,
          उन्हें उनकी निकटता के आधार पर वर्गीकृत किया जा सकता है. इसका मतलब है कि डेटा पॉइंट
          एक केंद्रक के निकटतम को क्लस्टर 1 की श्रेणी में रखा जाता है, जबकि उन्हें
          अन्य सेंट्रोइड के सबसे नज़दीक को क्लस्टर 2 की कैटगरी में रखा जाता है.

इसके बाद, एक मानव शोधकर्ता इन क्लस्टर की समीक्षा कर सकता है और, उदाहरण के लिए, लेबल क्लस्टर 1 को "बौने पेड़" के तौर पर चुनें और क्लस्टर 2 को "पूरे आकार के पेड़" के तौर पर चुनें.

एक अन्य उदाहरण के रूप में, केंद्र बिंदु से उदाहरण की दूरी को इस तरह दिखाया गया है:

कई डेटा पॉइंट एक ही केंद्र में बने हुए हैं. ये पॉइंट करीब-करीब एक जैसे
          जैसे कि डार्ट बोर्ड के बीच में छेद हो सकते हैं. सबसे अंदर का रिंग
          डेटा पॉइंट को क्लस्टर 1, बीच में मौजूद रिंग की कैटगरी में रखा गया है
          को क्लस्टर 2 की कैटगरी में रखा गया है और सबसे बाहरी रिंग को
          क्लस्टर 3.

क्लस्टरिंग कोर्स देखें हमारा वीडियो देखें.

को-अडैप्टेशन

जब न्यूरॉन इन चीज़ों का इस्तेमाल करके, ट्रेनिंग डेटा के पैटर्न का अनुमान लगाते हैं खास तौर पर, खास तरह के न्यूरॉन के आउटपुट पर निर्भर रहने के बजाय नेटवर्क को कैसे मैनेज किया जा सकता है. जब साथ मिलकर बनने वाले पैटर्न पुष्टि करने वाले डेटा में मौजूद नहीं होते हैं, तो साथ मिलकर बदलाव करने की वजह से ओवरफ़िटिंग होती है. ड्रॉपआउट रेगुलराइज़ेशन की मदद से, साथ मिलकर कॉन्टेंट बनाने की प्रोसेस कम हो जाती है क्योंकि ड्रॉपआउट पक्का करता है कि न्यूरॉन पूरी तरह से खास अन्य न्यूरॉन पर निर्भर नहीं हो सकते.

मिलकर काम करने के लिए फ़िल्टर करना

#recsystems

किसी उपयोगकर्ता की दिलचस्पियों के बारे में अनुमान लगाना कई अन्य उपयोगकर्ताओं की पसंद के आधार पर. कोलैबोरेटिव फ़िल्टरिंग का इस्तेमाल अक्सर सुझाव देने वाले सिस्टम में किया जाता है.

सहयोगी देखें फ़िल्टर करना देखें.

कॉन्सेप्ट ड्रिफ़्ट

सुविधाओं और लेबल के बीच के संबंध में बदलाव. समय के साथ, कॉन्सेप्ट ड्रिफ़्ट होने पर मॉडल की क्वालिटी खराब हो जाती है.

ट्रेनिंग के दौरान मॉडल, सुविधाओं और अपने लेबल ट्रेनिंग सेट में शामिल कर सकते हैं. अगर ट्रेनिंग सेट में मौजूद लेबल वे असल दुनिया की बेहतरीन प्रॉक्सी होती हैं. ऐसे में, मॉडल को अच्छा अनुभव होना चाहिए खोज के लिए इस्तेमाल किया जा सकता है. हालांकि, कॉन्सेप्ट ड्रिफ़्ट होने की वजह से, इस मॉडल का समय के साथ अनुमान में गिरावट आ जाती है.

उदाहरण के लिए, बाइनरी क्लासिफ़िकेशन का इस्तेमाल करें जो यह अनुमान लगाता है कि कोई कार मॉडल "ईंधन की बचत" वाला मॉडल है या नहीं. इसका मतलब है कि ये सुविधाएं:

  • कार का वज़न
  • इंजन कंप्रेशन
  • ट्रांसमिशन टाइप

जब लेबल इनमें से कोई एक हो:

  • ईंधन की बचत
  • ईंधन की खपत कम होती है

हालांकि, "ईंधन की बचत करने वाली कार" रखना बदल रहा है. साल 1994 में, ईंधन की बचत लेबल वाला कार मॉडल करीब-करीब यह था कि लेबल हो कि 2024 में ईंधन की कम खपत नहीं होगी. कॉन्सेप्ट ड्रिफ़्ट से जूझता मॉडल समय के साथ, कम और काम के अनुमान लगाने वाले हैं.

नॉनस्टेशनरिटी की मदद से तुलना करें. साथ ही, इनके बीच अंतर बताएं.

स्थिति

#df

डिसिज़न ट्री में, ऐसा कोई भी नोड जो किसी एक्सप्रेशन का आकलन करता है. उदाहरण के लिए, डिसिज़न ट्री में दो शर्तें होती हैं:

डिसिज़न ट्री जिसमें दो शर्तें होती हैं: (x > 0) और
          (y > 0).

स्थिति को स्प्लिट या टेस्ट भी कहा जाता है.

पत्ती के साथ कंट्रास्ट की स्थिति.

यह भी देखें:

शर्तें किस तरह की हैं देखें पर जाएं.

बातचीत

#language

गलत जानकारी का पर्यायवाची.

हो सकता है कि कन्फ़ैब्युलेशन, गलत जानकारी के मुकाबले ज़्यादा सटीक शब्द हो. हालांकि, गलत जानकारी पहले लोकप्रिय हुई.

कॉन्फ़िगरेशन

मॉडल को ट्रेनिंग देने के लिए इस्तेमाल की जाने वाली शुरुआती प्रॉपर्टी वैल्यू को असाइन करने की प्रोसेस, शामिल हैं:

मशीन लर्निंग प्रोजेक्ट में, कॉन्फ़िगरेशन को कॉन्फ़िगरेशन फ़ाइल चुनें या कॉन्फ़िगरेशन लाइब्रेरी का इस्तेमाल करें, जैसे कि:

एक पक्ष की पुष्टि करना

#fairness

किसी खास विषय में जानकारी को खोजने, उसकी व्याख्या करने, उसके पक्ष में होने और उसे याद करने की जिससे किसी व्यक्ति की पहले से मौजूद मान्यताओं या परिकल्पनाओं की पुष्टि हो सके. मशीन लर्निंग डेवलपर अनजाने में जानकारी इकट्ठा कर सकते हैं या लेबल कर सकते हैं डेटा का इस तरह इस्तेमाल करना जिससे मौजूदा उपयोगकर्ताओं की मौजूदा मान्यताएं. कंफ़र्मेशन बायस, एक तरह का अनुमान है.

एक्सपेरिमेंट करने वाले का पूर्वाग्रह, पुष्टि करने वाला एक तरह का पूर्वाग्रह होता है, जिसमें जब तक कोई एक्सपेरिमेंट करने वाला व्यक्ति ट्रेनिंग मॉडल को तब तक जारी रखता है, जब तक कि वह अनुमान की पुष्टि हो गई हो.

भ्रम की स्थिति का मैट्रिक्स

#fundamentals

NxN टेबल, जिसमें सही और गलत अनुमानों की संख्या की खास जानकारी होती है जिसे क्लासिफ़िकेशन मॉडल बनाया गया है. उदाहरण के लिए, बाइनरी क्लासिफ़िकेशन मॉडल:

कैंसर (अनुमानित) नॉन-ट्यूमर (अनुमानित)
टमर (ग्राउंड ट्रूथ) 18 (टीपी) 1 (FN)
नॉन-ट्यूमर (ग्राउंड ट्रूथ) 6 (एफ़पी) 452 (TN)

पहले वाले भ्रम की मेट्रिक में ये चीज़ें दिखती हैं:

  • उन 19 भविष्यवाणियों में से जिनमें असल सच था, टुमोर था इस मॉडल में, 18 को सही कैटगरी में रखा गया है. साथ ही, मॉडल को गलती से 1 की कैटगरी में रखा गया है.
  • जिन 458 अनुमानों में ज़मीनी सच्चाई का पता नॉन-ट्यूमोर था, उनमें से यह मॉडल 452 को सही तरीके से और गलत तरीके से 6 की कैटगरी में रखा गया है.

मल्टी-क्लास क्लासिफ़िकेशन में भ्रम की स्थिति दिखाने वाला मैट्रिक्स समस्या के बारे में जानने से, गलतियों के पैटर्न को पहचानने में मदद मिलती है. उदाहरण के लिए, 3-क्लास के लिए नीचे दिए गए भ्रम की मात्रा के आव्यूह पर विचार करें मल्टी-क्लास क्लासिफ़िकेशन मॉडल, जो आइरिस के तीन टाइप को कैटगरी में बांटता है (वर्जीनिका, वर्सीकलर, और सेटोसा). जब वर्जिनिका की ज़मीनी असली थी, तो भ्रम की स्थिति दिखाने वाले मैट्रिक्स से पता चलता है कि मॉडल, ग़लती से उस मॉडल Setosa की तुलना में Versicolor का अनुमान लगाएं:

  Setosa (अनुमानित) वर्सीकलर (अनुमानित) वर्जिनिका (अनुमानित)
सेटोसा (ग्राउंड ट्रूथ) 88 12 0
वर्सीकलर (ग्राउंड ट्रूथ) 6 141 7
वर्जिनिका (ग्राउंड ट्रूथ) 2 27 109

इसका एक और उदाहरण देखें. भ्रम की स्थिति दिखाने वाले मैट्रिक्स से यह पता चल सकता है कि मॉडल यह पता लगाने के लिए कि हाथ से लिखे गए अंक गलती से 4 के बजाय 9 का अनुमान लगाते हैं, या गलती से 7 के बजाय 1 का अनुमान लगाती है.

कन्फ़्यूजन मैट्रिक्स में पर्याप्त जानकारी होती है. इसकी मदद से, अलग-अलग तरह की परफ़ॉर्मेंस मेट्रिक. जैसे, सटीक और याद रखें.

चुनाव क्षेत्र की पार्सिंग

#language

किसी वाक्य को व्याकरण के हिसाब से छोटे-छोटे स्ट्रक्चर में बांटना. एमएल सिस्टम का बाद का हिस्सा, जैसे कि सामान्य भाषा की समझ मॉडल, मूल वाक्य की तुलना में अवयवों को ज़्यादा आसानी से पार्स कर सकता है. उदाहरण के लिए, इस वाक्य पर विचार करें:

मेरे दोस्त ने दो बिल्लियों को गोद लिया है.

निर्वाचन क्षेत्र पार्सर इस वाक्य को इसमें ये दो लोग शामिल हैं:

  • मेरा दोस्त एक संज्ञा वाक्यांश है.
  • optedtwo cats में क्रिया के रूप में लिखा जाता है.

इन उम्मीदवारों को छोटे-छोटे हिस्सों में बांटा जा सकता है. उदाहरण के लिए, क्रिया के वाक्यांश

दो बिल्लियों को गोद लिया

इन्हें इन ग्रुप में बांटा जा सकता है:

  • adopt एक क्रिया है.
  • two cats, एक और संज्ञा वाक्यांश है.

कॉन्टेक्स्ट के हिसाब से भाषा जोड़ना

#language
#generativeAI

एम्बेड करने की सुविधा, जिसमें "समझौते" के बारे में ज़्यादा बताया गया हो शब्द और वाक्यांशों का इस्तेमाल किया जाता है. प्रासंगिक भाषा एम्बेड करने की सुविधा मुश्किल सिंटैक्स, सिमेंटिक्स, और कॉन्टेक्स्ट को समझ सकती है.

उदाहरण के लिए, अंग्रेज़ी शब्द cow को एम्बेड करने के बारे में सोचें. पुराने वीडियो एम्बेड करना जैसे कि word2vec, अंग्रेज़ी को ऐसे शब्द जैसे कि एम्बेड करने की जगह की दूरी गाय से बैल तक की दूरी युवा (महिला भेड़) से दूरी के बराबर है राम (पुरुष) या महिला से पुरुष. प्रासंगिक भाषा एम्बेड करने की सुविधा से, वीडियो को और बेहतर बनाने के लिए, कभी-कभी अंग्रेज़ी बोलने वाले लोगों की पहचान की जा सकती है आम तौर पर गाय शब्द का इस्तेमाल गाय या बैल का मतलब समझने के लिए किया जाता है.

कॉन्टेक्स्ट विंडो

#language
#generativeAI

किसी मॉडल में कितने टोकन प्रोसेस किए जा सकते हैं प्रॉम्प्ट. संदर्भ विंडो जितनी बड़ी होती है, उतनी ही ज़्यादा जानकारी होती है इस मॉडल का इस्तेमाल, आसान और सटीक जवाब देने के लिए किया जा सकता है. प्रॉम्प्ट तक.

लगातार चलने वाली सुविधा

#fundamentals

फ़्लोटिंग-पॉइंट सुविधा जिसमें कई विकल्प हो सकते हैं वैल्यू, जैसे कि तापमान या वज़न.

अलग-अलग सुविधा से कंट्रास्ट करें.

आसानी से इकट्ठा किया जाने वाला सैंपल

तेज़ी से काम करने के लिए, वैज्ञानिक तरीके से इकट्ठा किए गए डेटासेट का इस्तेमाल करना एक्सपेरिमेंट. बाद में, यह ज़रूरी होगा कि आप वैज्ञानिक रूप से इकट्ठा किए जाएं डेटासेट.

कन्वर्जेंस

#fundamentals

वह स्थिति तब पहुंच जाती है, जब लॉस की वैल्यू में बहुत कम या हर दोहराव के साथ नहीं. उदाहरण के लिए, निम्न लॉस कर्व, करीब 700 बार दोहराया गया है:

कार्टीज़न प्लॉट. X-ऐक्सिस में नुकसान होता है. Y-ऐक्सिस, ट्रेनिंग की वह संख्या है
          बार-बार किया जा सकता है. शुरुआती कुछ बार में नुकसान बहुत ज़्यादा होता है, लेकिन
          तेज़ी से गिरावट आता है. करीब 100 बार दोहराने के बाद भी नुकसान होता है
          धीरे-धीरे घटता ही जा रहा है. करीब 700 बार दोहराने के बाद,
          में गिरावट नहीं आती है.

कोई मॉडल तब कहता है, जब अतिरिक्त ट्रेनिंग काम नहीं करती मॉडल को बेहतर बनाने में मदद करता है.

डीप लर्निंग में, नुकसान की वैल्यू कभी-कभी स्थिर रहती हैं या अंत में घटते क्रम में कई प्रयोग करने पड़ते थे. लंबी अवधि के दौरान हो सकता है कि कुछ समय के लिए, आपको कन्वर्ज़न के बारे में गलत जानकारी दिखे.

शुरुआती स्टॉप भी देखें.

मॉडल की कन्वर्ज़न वैल्यू और उसमें होने वाले नुकसान की जानकारी देखें कर्व देखें.

कॉनवैक्स फ़ंक्शन

ऐसा फ़ंक्शन जिसमें फ़ंक्शन के ग्राफ़ के ऊपर का क्षेत्र कॉन्वेक्स सेट. प्रोटोटाइपिकल उत्तल फ़ंक्शन है आकार में U अक्षर हो. उदाहरण के लिए, निम्न ये सभी उत्तल फलन होते हैं:

U आकार के कर्व, जिनमें हर एक का कम से कम बिंदु होता है.

इसके उलट, नीचे दिया गया फ़ंक्शन उत्तल नहीं है. ध्यान दें कि कैसे ग्राफ़ के ऊपर मौजूद क्षेत्र, एक कन्वर्ज़न सेट नहीं है:

W के आकार का कर्व, जिसमें दो अलग-अलग स्थानीय कम से कम पॉइंट हैं.

किसी स्ट्रिकली कन्वेक्स फ़ंक्शन में, सिर्फ़ एक स्थानीय कम से कम पॉइंट होता है, जो यह वैश्विक न्यूनतम बिंदु भी है. ये क्लासिक U के आकार वाले फ़ंक्शन हैं सख्ती से उत्तल फ़ंक्शन. हालांकि, कुछ उत्तल फ़ंक्शन (उदाहरण के लिए, सीधी लाइनें) U के आकार की नहीं होती हैं.

कन्वर्ज़न और उत्तलता देखें फ़ंक्शन देखें.

कन्वर्ज़न ऑप्टिमाइज़ेशन

गणित की तकनीकों का इस्तेमाल करने की प्रोसेस, जैसे कि ग्रेडिएंट डिसेंट कम से कम Convex फ़ंक्शन. मशीन लर्निंग पर काफ़ी रिसर्च की गई है. इसका फ़ोकस, समस्याओं को उत्तेजित करने वाली ऑप्टिमाइज़ेशन समस्याओं के रूप में और उन समस्याओं को ज़्यादा हल करने में हैं.

पूरी जानकारी के लिए, बॉयड और वेंडेनबर्ग देखें. Convex ऑप्टिमाइज़ेशन.

कॉनवैक्स सेट

इयूक्लिडीन स्पेस का सबसेट, जैसे कि यूक्लिडीन स्पेस में मौजूद दो बिंदुओं के बीच बनाई जाने वाली लाइन सबसेट पूरी तरह से सबसेट के अंदर रहता है. उदाहरण के लिए, नीचे दिए गए दो आकार, उत्तल सेट होते हैं:

आयत का एक इलस्ट्रेशन. अंडाकार का एक और इलस्ट्रेशन.

इसके उलट, नीचे दिए गए दो आकार उत्तल सेट नहीं होते हैं:

छूटे हुए स्लाइस के साथ पाई-चार्ट का एक इलस्ट्रेशन.
          पॉलीगॉन का एक और इलस्ट्रेशन.

कन्वर्ज़न

#image

गणित में, आम तौर पर दो फ़ंक्शन का मिक्स होता है. मशीन में कॉन्वोल्यूशन कॉन्वोल्यूशन और फ़िल्टर और इनपुट मैट्रिक्स वज़न को ट्रेनिंग देने के लिए.

"सहजता" शब्द अक्सर इस्तेमाल की जाने वाली चीज़ों कॉन्वोलूशनल ऑपरेशन या कॉन्वोलूशन लेयर.

जटिलताओं के बिना, मशीन लर्निंग एल्गोरिदम को बड़े टेंसर में हर सेल के लिए अलग-अलग वज़न. उदाहरण के लिए, 2K x 2K इमेज के लिए, मशीन लर्निंग एल्गोरिदम की ट्रेनिंग को 4M अलग-अलग भार पता करें. बातचीत, मशीन लर्निंग की बदौलत एल्गोरिदम को कॉन्वोल्यूशन फ़िल्टर का इस्तेमाल करने से, बहुत ज़्यादा मॉडल को ट्रेनिंग देने के लिए ज़रूरी मेमोरी. जब कॉन्वलूशनल फ़िल्टर लागू किया जाता है, तो इसे बस सभी सेल में इस तरह दोहराया जाता है कि हर एक को गुणा किया जाता है फ़िल्टर के हिसाब से फ़िल्टर करें.

पेश है कॉन्वोलूशनल न्यूरल नेटवर्क ज़्यादा जानकारी के लिए, इमेज क्लासिफ़िकेशन कोर्स में जाएं.

कॉन्वोल्यूशन फ़िल्टर

#image

दो अभिनेताओं में से एक कन्वोलूशनल ऑपरेशन. (अन्य कलाकार इनपुट मैट्रिक्स का एक हिस्सा है.) कॉन्वलूशनल फ़िल्टर एक ऐसा मैट्रिक्स होता है जिसमें जो इनपुट मैट्रिक्स के समान रैंक है, लेकिन आकार छोटा है. उदाहरण के लिए, 28x28 इनपुट मैट्रिक्स के हिसाब से, फ़िल्टर कोई भी 2D मैट्रिक्स हो सकता है 28x28 से छोटा होना चाहिए.

फ़ोटोग्राफ़िक हेर-फेर में, कॉन्वोलूशनल फ़िल्टर की सभी सेल आम तौर पर, एक और शून्य के स्थिर पैटर्न पर सेट होता है. मशीन लर्निंग में, आम तौर पर, कॉन्वलूशनल फ़िल्टर में किसी भी क्रम का नंबर शामिल किया जाता है. इसके बाद, नेटवर्क, सही वैल्यू को ट्रेन करता है.

कॉन्वलूशन देखें ज़्यादा जानकारी के लिए, इमेज क्लासिफ़िकेशन कोर्स में जाएं.

कॉन्वोलूशन लेयर

#image

डीप न्यूरल नेटवर्क की एक लेयर, जिसमें कन्वोलूशनल फ़िल्टर, इनपुट के साथ पास करता है मैट्रिक्स. उदाहरण के लिए, नीचे दी गई 3x3 वैल्यू का इस्तेमाल करें कॉन्वोल्यूशन फ़िल्टर:

इन वैल्यू वाला 3x3 मैट्रिक्स: [[0,1,0], [1,0,1], [0,1,0]]

नीचे दिया गया ऐनिमेशन 9 वाली एक कॉन्वलूशन लेयर दिखाता है 5x5 इनपुट मैट्रिक्स से जुड़ी कॉन्वोल्यूशनल ऑपरेशंस. ध्यान दें कि प्रत्येक कॉन्वोलूशनल ऑपरेशन इनपुट मैट्रिक्स के एक अलग 3x3 स्लाइस पर काम करता है. नतीजे के तौर पर मिलने वाले 3x3 मैट्रिक्स (दाईं ओर) में 9 के नतीजे होते हैं कॉन्वोल्यूशनल ऑपरेशंस:

इस ऐनिमेशन में दो मैट्रिक्स दिखाए गए हैं. पहला मैट्रिक्स 5x5 है
          मैट्रिक्स: [[1,28,97,53,201,198], [35,22,25,200,195],
          [37,24,28,197,182], [33,28,92,195,179], [31,40,100,192,177].
          दूसरा मैट्रिक्स 3x3 मैट्रिक्स है:
          [[18,13,03,618], [1,15,338,605], [1,69,351,560].
          दूसरे आव्यूह की गणना संवलन (कॉन्वलूशनल) को लागू करके की जाती है
          सभी फ़िल्टर [[0, 1, 0], [1, 0, 1], [0, 1, 0]]
          5x5 मैट्रिक्स के अलग-अलग 3x3 सबसेट.

पूरी तरह से कनेक्ट है देखें लेयर ज़्यादा जानकारी के लिए, इमेज क्लासिफ़िकेशन कोर्स में जाएं.

कॉन्वोलूशनल न्यूरल नेटवर्क

#image

ऐसा न्यूरल नेटवर्क जिसमें कम से कम एक लेयर, कॉन्वोलूशन लेयर. सामान्य कॉन्वलूशन न्यूरल नेटवर्क में नीचे दी गई लेयर के कुछ कॉम्बिनेशन शामिल हैं:

कॉन्वोलूशनल न्यूरल नेटवर्क को कुछ खास तरह के विज्ञापनों में बहुत ज़्यादा सफलता मिली है जैसे कि इमेज पहचानने जैसी समस्याओं की वजह से.

कॉन्वलूशनल ऑपरेशन

#image

नीचे दिया गया दो चरणों वाला गणितीय ऑपरेशन:

  1. एलिमेंट के हिसाब से मल्टीप्लिकेशन ऑफ़ कॉन्वोल्यूशन फ़िल्टर और इनपुट मैट्रिक्स. (इनपुट मैट्रिक्स की स्लाइस की रैंक एक जैसी है और साइज़ को कनवलूशनल फ़िल्टर के तौर पर सेट करें.)
  2. नतीजे के तौर पर मिले प्रॉडक्ट मैट्रिक्स में सभी वैल्यू का योग.

उदाहरण के लिए, यहां दिए गए 5x5 इनपुट मैट्रिक्स पर गौर करें:

5x5 मैट्रिक्स: [[1,28,97,53,201,198], [35,22,25,200,195],
          [37,24,28,197,182], [33,28,92,195,179], [31,40,100,192,177].

अब 2x2 कॉन्वोल्यूशन फ़िल्टर का इस्तेमाल करें:

2x2 मैट्रिक्स: [[1, 0], [0, 1]]

हर कॉन्वलूशनल ऑपरेशन में इनपुट मैट्रिक्स. उदाहरण के लिए, मान लें कि हम इनपुट मैट्रिक्स के ऊपर बाईं ओर. इसलिए, कॉन्वोल्यूशन ऑपरेशन यह स्लाइस इस तरह दिखता है:

सबसे ऊपर बाईं ओर, कॉन्वलूशनल फ़िल्टर [[1, 0], [0, 1]] लागू करना
          इनपुट मैट्रिक्स का 2x2 सेक्शन, जो [[128,97], [35,22]] है.
          कॉन्वोलूशनल फ़िल्टर, 128 और 22 को वैसे ही छोड़ देता है, लेकिन शून्य
          की बात कर रहे हैं. इस वजह से, कॉन्वोल्यूशन ऑपरेशन का नतीजा मिलता है
          वैल्यू 150 (128+22).

कॉन्वोलूशन लेयर में, कॉन्वलूशनल ऑपरेशंस की सीरीज़, हर एक अलग स्लाइस पर काम करती है .

लागत

लॉस का समानार्थी शब्द.

को-ट्रेनिंग

सेमी सुपरवाइज़्ड लर्निंग का तरीका खास तौर पर तब फ़ायदेमंद होती है, जब नीचे दी गई सभी शर्तें सही हों:

को-ट्रेनिंग, अलग-अलग तरह के सिग्नल को बेहतर बनाती है. उदाहरण के लिए, किसी क्लासिफ़िकेशन मॉडल पर विचार करें इस्तेमाल की गई अलग-अलग कारों को अच्छी या खराब की कैटगरी में रखता है. इसका एक सेट सुविधाओं के अनुमान लगाने के लिए, एग्रीगेट किए गए डेटा पर फ़ोकस किया जा सकता है. जैसे, साल, कार बनाने वाली कंपनी और उसका मॉडल; जब उपयोगकर्ता के व्यवहार के बारे में अनुमान लगाने वाली सुविधाओं का इस्तेमाल किया जाता है, तो कार के पिछले मालिक की ड्राइविंग का रिकॉर्ड और कार के रखरखाव का इतिहास.

को-ट्रेनिंग के बारे में बताने वाला मूल पेपर लेबल और बिना लेबल वाले डेटा को, को-ट्रेनिंग: ब्लम और मिशेल.

काउंटरफ़ैक्चुअल फ़ेयरनेस

#fairness

फ़ेयरनेस मेट्रिक, जो यह जांचती है कि डेटा की कैटगरी तय करने वाली सुविधा किसी व्यक्ति के लिए वैसा ही नतीजा देता है जैसा किसी दूसरे व्यक्ति के लिए होता है जो पहले वाले के जैसे है, एक या एक से ज़्यादा के मामले में संवेदनशील एट्रिब्यूट. इसके लिए, क्लासिफ़ायर का आकलन करना काउंटरफ़ैक्चुअल फ़ेयरनेस एक ऐसा तरीका है जिसकी मदद से, यह पता लगाया जा सकता है कि को ध्यान में रखा जाना चाहिए.

ज़्यादा जानकारी के लिए, इनमें से किसी एक को देखें:

कवरेज बायस

#fairness

चुनाव के मापदंड देखें.

क्रैश ब्लॉसम

#language

ऐसा वाक्य या वाक्यांश जिसका मतलब साफ़ तौर पर न हो. क्रैश ब्लॉसम प्राकृतिक भाषा की समझ. उदाहरण के लिए, हेडलाइन Red Tape होल्ड्स अप स्काईस्क्रेपर क्रैश ब्लॉसम क्योंकि एक NLU मॉडल हेडलाइन को सही-सही समझ सकता है या रूप से.

आलोचक

#rl

Deep Q-Network का समानार्थी शब्द.

क्रॉस-एंट्रॉपी

लॉग लॉस का सामान्य तरीके से मल्टी-क्लास क्लासिफ़िकेशन. क्रॉस-एंट्रॉपी दो प्रॉबबिलिटी डिस्ट्रिब्यूशन के बीच के अंतर को मापता है. इन्हें भी देखें परेशानी.

क्रॉस-वैलिडेशन

यह अनुमान लगाने का एक तरीका है कि कोई मॉडल कितना सामान्य हो सकता है नया डेटा इकट्ठा करने के लिए, मॉडल को ओवरलैप न करने वाले एक या उससे ज़्यादा डेटा सबसेट के हिसाब से टेस्ट किया जाता है ट्रेनिंग सेट से रोका गया.

क्यूमुलेटिव डिस्ट्रीब्यूशन फ़ंक्शन (सीडीएफ़)

ऐसा फ़ंक्शन जो सैंपल की फ़्रीक्वेंसी को टारगेट वैल्यू. उदाहरण के लिए, कंटिन्यूअस वैल्यू के सामान्य डिस्ट्रिब्यूशन पर विचार करें. CDF आपको बताता है कि करीब 50% सैंपल, उनसे कम या उसके बराबर होने चाहिए और यह कि करीब 84% नमूने, औसत से कम या उसके बराबर होने चाहिए मीन से ऊपर एक मानक विचलन.

D

डेटा ऐनलिसिस

सैंपल, मेज़रमेंट, और और विज़ुअलाइज़ेशन. डेटा विश्लेषण खास तौर पर तब फ़ायदेमंद हो सकता है, जब डेटासेट पाने के लिए, किसी व्यक्ति का मॉडल बनाने से पहले ही डेटा इकट्ठा करना ज़रूरी होता है. इसके साथ ही, प्रयोगों को समझने और समस्याओं को डीबग करने के लिए भी यह बहुत ज़रूरी है है.

डेटा बढ़ाना

#image

मैन्युअल तरीके से इस आइटम की रेंज और संख्या बढ़ाना ट्रेनिंग के उदाहरण मौजूदा कॉन्टेंट को ज़्यादा उदाहरण बनाने के लिए, उदाहरण. उदाहरण के लिए, मान लीजिए कि इमेज आपके सुविधाएँ, लेकिन आपका डेटासेट में पर्याप्त इमेज के उदाहरण मौजूद हों, ताकि मॉडल उपयोगी असोसिएशन सीख सके. आम तौर पर, आप अपनी ज़रूरत के हिसाब से इमेज को अपने डेटासेट में लेबल किया गया हो, ताकि अपने मॉडल को सही ट्रेनिंग देने में मदद करें. अगर ऐसा नहीं किया जा सकता, तो डेटा को बेहतर बनाने की सुविधा हर इमेज को घुमा सकता है, स्ट्रेच कर सकता है, और रिफ़्लेक्शन कर सकता है. ऐसा करके, इमेज के कई वैरिएंट बनाए जा सकते हैं जिससे इमेज में साफ़ तौर पर ट्रेनिंग ली हुई है.

DataFrame

#fundamentals

लोकप्रिय पांडा का डेटा टाइप, जिन्हें पेश करने के लिए इस्तेमाल किया जाता है मेमोरी में डेटासेट.

DataFrame, टेबल या स्प्रेडशीट से मिलता-जुलता होता है. का प्रत्येक कॉलम DataFrame का एक नाम (एक हेडर) होता है और हर पंक्ति की पहचान अद्वितीय नंबर.

DataFrame में मौजूद हर कॉलम को 2D कलेक्शन की तरह बनाया जाता है. हालांकि, हर कॉलम को उसका डेटा टाइप असाइन किया जा सकता है.

ऑफ़िशियल pandas.DataFrame संदर्भ पेज पर जाएं.

डेटा पैरलिज़्म

ट्रेनिंग या अनुमान को स्केल करने का तरीका जो एक पूरे मॉडल की नकल करती है कई डिवाइस पर डाउनलोड करता है और फिर हर डिवाइस को इनपुट डेटा का एक सबसेट पास करता है. डेटा पैरलिज़्म की मदद से, बड़े पैमाने पर ट्रेनिंग और अनुमान तैयार किए जा सकते हैं बैच के साइज़; हालांकि, डेटा पैरलिज़्म के लिए ज़रूरी है कि मॉडल इतना छोटा हो कि वह सभी डिवाइसों पर फ़िट हो सके.

आम तौर पर, डेटा एक जैसा अनुभव देने से ट्रेनिंग और अनुमान को तेज़ी से बढ़ाया जा सकता है.

मॉडल समानता भी देखें.

डेटा सेट या डेटासेट

#fundamentals

रॉ डेटा का कलेक्शन, जो आम तौर पर (खास तौर पर नहीं) एक ही तरह से व्यवस्थित होता है नीचे दिए गए फ़ॉर्मैट में शामिल हैं:

  • स्प्रेडशीट
  • CSV फ़ॉर्मैट वाली फ़ाइल (कॉमा लगाकर अलग की गई वैल्यू)

Dataset API (tf.data)

#TensorFlow

डेटा पढ़ने के लिए एक हाई-लेवल TensorFlow एपीआई और उसे एक मशीन लर्निंग एल्गोरिदम की ज़रूरत के हिसाब से बदल सकते हैं. tf.data.Dataset ऑब्जेक्ट, एलिमेंट का एक क्रम दिखाता है, जिसमें हर एलिमेंट में एक या एक से ज़्यादा टेंसर होते हैं. tf.data.Iterator ऑब्जेक्ट, Dataset के एलिमेंट का ऐक्सेस देता है.

फ़ैसले की सीमा

इनके बीच में सेपरेटर क्लास ने सीखा मॉडल बाइनरी क्लास या मल्टी-क्लास क्लासिफ़िकेशन से जुड़ी समस्याएं. उदाहरण के लिए, नीचे दी गई इमेज में बाइनरी क्लासिफ़िकेशन की समस्या है. डिसिज़न लिमिट, ऑरेंज क्लास और ब्लू क्लास:

एक क्लास और दूसरे क्लास के बीच की साफ़-साफ़ सीमा.

डिसिज़न फ़ॉरेस्ट

#df

कई डिसिज़न ट्री से बनाया गया मॉडल. डिसिज़न फ़ॉरेस्ट एक अनुमान लगाता है, जो डिसिज़न ट्री. डिसिज़न फ़ॉरेस्ट में ये लोकप्रिय चीज़ें शामिल हैं रैंडम फ़ॉरेस्ट और ग्रेडिएंट बूस्ट किए गए पेड़.

फ़ैसले देखें जंगल सेक्शन में जाएं.

फ़ैसले के लिए थ्रेशोल्ड

क्लासिफ़िकेशन थ्रेशोल्ड के लिए समानार्थी शब्द.

डिसिज़न ट्री

#df

निगरानी में रखा गया लर्निंग मॉडल, जिसमें स्थिति और ली जाने की जानकारी हैरारकी के हिसाब से व्यवस्थित की जाती है. उदाहरण के लिए, यह डिसिज़न ट्री है:

चार शर्तों वाला डिसिज़न ट्री
          इसमें पांच पत्तियां होती हैं.

डिकोडर

#language

आम तौर पर, कोई भी ऐसा एमएल सिस्टम जो प्रोसेस किए गए, सघन या ज़्यादा रॉ, विरल या बाहरी कॉन्टेंट को संगठन के अंदर दिखाना.

डिकोडर अक्सर किसी बड़े मॉडल का हिस्सा होते हैं, जहां वे अक्सर एन्कोडर के साथ जोड़ा गया हो.

सिलसिलेवार टास्क में, डिकोडर इसकी शुरुआत एन्कोडर की मदद से जनरेट की गई अंदरूनी स्थिति से शुरू होती है, ताकि अगले चरण का अनुमान लगाया जा सके क्रम.

अंदर मौजूद डिकोडर की परिभाषा जानने के लिए, Transformer देखें देखें.

बड़े लैंग्वेज मॉडल देखें देखें.

डीप मॉडल

#fundamentals

ऐसा न्यूरल नेटवर्क जिसमें एक से ज़्यादा न्यूरल नेटवर्क हों छिपी हुई लेयर.

डीप मॉडल को डीप न्यूरल नेटवर्क भी कहा जाता है.

वाइड मॉडल से कंट्रास्ट अलग हो.

डीप न्यूरल नेटवर्क

डीप मॉडल के लिए समानार्थी शब्द.

डीप क्यू-नेटवर्क (डीक्यूएन)

#rl

Q-learning में, एक डीप Q-learning जो Q-फ़ंक्शन का अनुमान लगाता है.

क्रिटिक, Deep Q-Network का एक समानार्थी शब्द है.

डेमोग्राफ़िक (उम्र, लिंग, आय, शिक्षा वगैरह) समानता

#fairness

यह एक फ़ेयरनेस मेट्रिक होती है, जिसका समाधान सिर्फ़ तब होता है, जब मॉडल के क्लासिफ़िकेशन के नतीजे, इस बात पर निर्भर नहीं करते हैं कि दिया गया संवेदनशील एट्रिब्यूट.

उदाहरण के लिए, यदि लिलिपुटियन और ब्रोबडिंगनाजियन, दोनों ग्लबडुब्ड्रिब यूनिवर्सिटी, डेमोग्राफ़ी के हिसाब से एक जैसी है, अगर लिलिपुटियन लोगों का मानना है कि यह ब्रोबडिंगनाजियन लोगों के प्रतिशत के बराबर है इस बात से कोई फ़र्क़ नहीं पड़ता कि कोई ग्रुप औसतन ज़्यादा योग्य है या नहीं अन्य की तुलना में.

समान विषम संख्या और समानता, जिसमें डेटा की कैटगरी तय करने के नतीजे एक साथ दिखेंगे, ताकि वह संवेदनशील विशेषताओं, लेकिन कुछ निर्दिष्ट क्षेत्रों के लिए वर्गीकरण परिणामों की अनुमति न दें संवेदनशील विशेषताओं पर निर्भर करने वाले बुनियादी ट्रूथ लेबल. यहां जाएं: "हमले की रणनीति एक-दूसरे पर हमला कर रही है जिसमें विज़ुअलाइज़ेशन के लिए, स्मार्ट मशीन लर्निंग के साथ भेदभाव करना" डेमोग्राफ़िक समानता के लिए ऑप्टिमाइज़ करते समय ट्रेडऑफ़ के बारे में जानना.

निष्पक्षता: डेमोग्राफ़िक समानता देखें.

ग़ैर-ज़रूरी आवाज़ें हटाना

#language

सेल्फ़-सुपरवाइज़्ड लर्निंग इस्तेमाल करने का एक सामान्य तरीका जिसमें:

  1. शोर को डेटासेट में आर्टिफ़िशियल तरीके से जोड़ा जाता है.
  2. मॉडल नॉइज़ हटाने की कोशिश करता है.

ग़ैर-ज़रूरी आवाज़ें कम करने की सुविधा, बिना लेबल वाले उदाहरणों से सीखने में मदद करती है. ओरिजनल डेटासेट को टारगेट के तौर पर इस्तेमाल किया जाता है या label और शोर वाला डेटा है.

मास्क की गई भाषा के कुछ मॉडल में, ग़ैर-ज़रूरी आवाज़ें कम करने की सुविधा का इस्तेमाल किया जाता है इस तरह से:

  1. बिना लेबल वाले वाक्य में कुछ जानकारी को मास्क करके, बिना आवाज़ वाले वाक्य को बनावटी तरीके से जोड़ा जाता है टोकन.
  2. मॉडल, ओरिजनल टोकन का अनुमान लगाने की कोशिश करता है.

सघनता

#fundamentals

ऐसी सुविधा जिसमें ज़्यादातर या सभी वैल्यू शून्य नहीं होती हैं फ़्लोटिंग-पॉइंट वैल्यू का एक Tensor. उदाहरण के लिए, निम्न 10-एलिमेंट Tensor घना है, क्योंकि इसके नौ वैल्यू शून्य नहीं हैं:

8 3 7 5 2 4 0 4 9 6

स्पार्स सुविधा से कंट्रास्ट अलग होना चाहिए.

सघन परत

पूरी तरह से कनेक्ट की गई लेयर का समानार्थी शब्द.

गहराई

#fundamentals

न्यूरल नेटवर्क में इनका योग:

उदाहरण के लिए, पांच छिपी हुई लेयर और एक आउटपुट लेयर वाला न्यूरल नेटवर्क की गहराई 6 है.

ध्यान दें कि इनपुट लेयर प्रभाव गहराई.

डेप्थवाइस सेपरेबल कॉन्वलूशनल न्यूरल नेटवर्क (sepCNN)

#image

कॉन्वोलूशनल न्यूरल नेटवर्क सिस्टम, इंसेप्शन, हालांकि, इंसेप्शन मॉड्यूल को डेप्थवाइड तरीके से अलग किए जा सकने वाले मॉड्यूल से बदला जाता है समाधान. इसे एक्ससेप्शन भी कहा जाता है.

गहराई से अलग किया जा सकने वाला कॉन्वोलूशन (इसे शॉर्ट फ़ॉर्म भी कहा जाता है) दो अलग-अलग कॉन्वलूशन ऑपरेशन में एक स्टैंडर्ड 3D कॉन्वलूशन लागू करता है जो कंप्यूटेशनल तौर पर ज़्यादा कारगर होते हैं: पहला, डेप्थवाइज़ कॉन्वोल्यूशन, पहले, 1 (n × n × 1) की गहराई के साथ, और फिर दूसरे बिंदु के हिसाब से, लंबाई और चौड़ाई 1 (1 × 1 y n) है.

ज़्यादा जानकारी के लिए, Xception: डीप लर्निंग विद डेप्थवाइज़ सेपरेबल देखें बातचीत.

डिराइव्ड लेबल

प्रॉक्सी लेबल के लिए समानार्थी शब्द.

डिवाइस

#TensorFlow
#GoogleCloud

इन दो संभावित परिभाषाओं के साथ कोई ओवरलोडेड टर्म:

  1. हार्डवेयर की ऐसी कैटगरी जो TensorFlow सेशन चला सकती है. इसमें ये शामिल हैं सीपीयू, जीपीयू, और TPU.
  2. एमएल मॉडल को ऐक्सेलरेटर चिप पर ट्रेनिंग देते समय (GPU या TPU), सिस्टम का वह हिस्सा है जो असल में हेर-फेर करता है टेंसर और एम्बेडिंग. यह डिवाइस, ऐक्सेलरेटर चिप पर काम करता है. इसके उलट, होस्ट आम तौर पर, सीपीयू पर चलता है.

डिफ़रेंशियल प्राइवसी

मशीन लर्निंग में, किसी भी संवेदनशील जानकारी को सुरक्षित रखने के लिए, पहचान छिपाने का तरीका अपनाया जाता है (उदाहरण के लिए, किसी व्यक्ति की निजी जानकारी) को मॉडल के ट्रेनिंग सेट को सार्वजनिक होने से रोकता है. इस तरीके से यह पक्का होता है कि कि मॉडल किसी खास चीज़ के बारे में न तो सीखता है और न ही उसके बारे में ज़्यादा याद रखता है व्यक्तिगत. ऐसा करने के लिए, मॉडल के दौरान सैंपलिंग और नॉइज़ जोड़कर किया जाता है अलग-अलग डेटा पॉइंट को धुंधला करने की ट्रेनिंग दी जाती है, ताकि डेटा पॉइंट सार्वजनिक होने के खतरे को कम किया जा सके संवेदनशील ट्रेनिंग डेटा.

डिफ़रेंशियल प्राइवसी का इस्तेमाल, मशीन लर्निंग के अलावा अन्य प्लैटफ़ॉर्म पर भी किया जाता है. उदाहरण के लिए, डेटा साइंटिस्ट कभी-कभी लोगों की सुरक्षा के लिए डिफ़रेंशियल प्राइवसी का इस्तेमाल करते हैं अलग-अलग डेमोग्राफ़िक्स (उम्र, लिंग, आय, शिक्षा वगैरह) के लिए, प्रॉडक्ट के इस्तेमाल के आंकड़ों की गिनती करते समय आपकी निजता का ध्यान रखा जाता है.

डाइमेंशन कम करने की सुविधा

किसी खास सुविधा को दिखाने के लिए इस्तेमाल किए गए डाइमेंशन की संख्या कम करना सुविधा वेक्टर में, आम तौर पर को एम्बेडिंग वेक्टर में बदलना.

आयाम

ओवरलोडेड टर्म जिसका इनमें से कोई एक मतलब है:

  • किसी Tensor में निर्देशांक के लेवल की संख्या. इसके लिए उदाहरण:

    • किसी अदिश का आयाम शून्य होता है; उदाहरण के लिए, ["Hello"].
    • वेक्टर में एक डाइमेंशन होता है; उदाहरण के लिए, [3, 5, 7, 11].
    • किसी मैट्रिक्स में दो डाइमेंशन होते हैं; उदाहरण के लिए, [[2, 4, 18], [5, 7, 14]]. किसी खास सेल को एक डाइमेंशन वाले वेक्टर में खास तौर पर बताया जा सकता है एक निर्देशांक के साथ; आपको विशिष्ट रूप से किसी द्वि-आयामी मैट्रिक्स में मौजूद खास सेल हो.
  • फ़ीचर वेक्टर में एंट्री की संख्या.

  • एम्बेडिंग लेयर में एलिमेंट की संख्या.

सीधे तौर पर प्रॉम्प्ट

#language
#generativeAI

ज़ीरो-शॉट प्रॉम्प्ट का पर्यायवाची.

डिस्क्रीट सुविधा

#fundamentals

एक ऐसी सुविधा जिसमें संभावित वैल्यू के सीमित सेट होते हैं. उदाहरण के लिए, ऐसी सुविधा जिसकी वैल्यू सिर्फ़ जानवर, सब्ज़ियां या खनिज हो सकती है अलग (या कैटगरी से जुड़ी) सुविधा का इस्तेमाल किया जा सकता है.

लगातार सुविधा से तुलना करें.

भेदभाव वाला मॉडल

एक ऐसा मॉडल जो किसी एक या अन्य सुविधाएं का इस्तेमाल करें. औपचारिक रूप से, भेदभाव वाले मॉडल सुविधाओं और weights; इसका मतलब है:

p(output | features, weights)

उदाहरण के लिए, मॉडल यह अनुमान लगाता है कि सुविधाओं से मिलने वाला कोई ईमेल स्पैम है या नहीं और वेट एक भेदभाव करने वाला मॉडल है.

निगरानी में रखे गए लर्निंग मॉडल का एक बड़ा हिस्सा, जिसमें क्लासिंग भी शामिल है और रिग्रेशन मॉडल, भेदभाव वाले मॉडल हैं.

जनरेटिव मॉडल में अंतर होना चाहिए.

डिस्क्रिमिनेटर

ऐसा सिस्टम जो यह तय करता है कि उदाहरण असली हैं या नकली.

इसके अलावा, यह ऐसा सबसिस्टम है जो जनरेटिव एआई की मदद से नेटवर्क है जो तय करता है कि जनरेटर के बनाए गए उदाहरण, असली या नकली हैं.

डिक्रिमिनेटर की मदद से जानें ज़्यादा जानकारी के लिए GAN कोर्स पर जाएं.

अलग-अलग असर

#fairness

अलग-अलग लोगों पर असर डालने वाले लोगों के बारे में फ़ैसले लेना सबग्रुप का अनुपात काफ़ी कम है. आम तौर पर, यह स्थितियों के लिए होता है जहाँ एल्गोरिदम की मदद से फ़ैसला लेने की प्रोसेस से, कुछ सबग्रुप.

उदाहरण के लिए, मान लें कि एक ऐसा एल्गोरिदम जो लिलिपुटियन की मिनिएचर होम लोन पाने की शर्तों को उन्हें "मंज़ूरी नहीं दी गई" के तौर पर दिखाया जाएगा अगर उनके डाक पते में पिन कोड. अगर बिग-एंडियन लिलिपुटियन के पास इस पिन कोड के साथ के डाक पते, Little-Endian Lilliputions, तो इस एल्गोरिदम का असर अलग-अलग हो सकता है.

अलग-अलग ट्रीटमेंट से कंट्रास्ट अलग होना, जो असमानताओं पर फ़ोकस करती है, जो सबग्रुप की विशेषताओं पर लागू होती है एल्गोरिदम से जुड़े फ़ैसले लेने की प्रोसेस के लिए, साफ़ तौर पर जानकारी दी जाती है.

अलग-अलग ट्रीटमेंट

#fairness

विषयों को शामिल करना' संवेदनशील एट्रिब्यूट एल्गोरिदम पर आधारित फ़ैसला लेने की प्रोसेस में शामिल होते हैं, जैसे कि अलग-अलग सबग्रुप लोगों के साथ अच्छा बर्ताव किया जाता है.

उदाहरण के लिए, एक ऐसे एल्गोरिदम पर विचार करें जो तय करते हैं कि लिलिपुटियन लोगों ने मिनिएचर होम लोन पाने की ज़रूरी शर्तें क़र्ज़ के आवेदन में दी जाने वाली जानकारी. अगर एल्गोरिदम किसी इनपुट के तौर पर, लिलिपुटियन की बिग-एंडियन या लिटिल-एंडियन के तौर पर संबद्धता उस डाइमेंशन के हिसाब से अलग-अलग तरह का व्यवहार किया जा रहा है.

अलग-अलग असर से तुलना करें, जो फ़ोकस करने पर फ़ोकस करते हैं एल्गोरिदम से जुड़े फ़ैसलों की वजह से, सबग्रुप पर होने वाले असर में असमानताओं पर, इससे कोई फ़र्क़ नहीं पड़ता कि वे सबग्रुप, मॉडल के इनपुट हैं या नहीं.

डिस्टिलेशन

#generativeAI

एक मॉडल (इसे शिक्षक) को छोटे मॉडल में बदल दिया जाता है. इसे छात्र/छात्रा कहा जाता है. यह मॉडल, मूल मॉडल के अनुमानों को जितना संभव हो सके उतने अच्छे तरीके से. डिस्टिलेशन उपयोगी है, क्योंकि छोटे मॉडल के दो मुख्य फ़ायदे हैं मॉडल (शिक्षक):

  • अनुमान लगाने में कम समय लगेगा
  • मेमोरी और ऊर्जा की खपत में कमी

हालांकि, छात्र-छात्राओं के अनुमान आम तौर पर उतने अच्छे नहीं होते के सुझाव देते हैं.

डिस्टिलेशन, छात्र-छात्राओं को ट्रेनिंग देता है कि आउटपुट के बीच के अंतर के आधार पर लॉस फ़ंक्शन के सुझाव देती है.

डिस्टिलेशन की तुलना करने के लिए, नीचे दिए गए शब्दों का इस्तेमाल करें:

एलएलएम: फ़ाइन ट्यूनिंग, डिस्टिलेशन, और प्रॉम्प्ट इंजीनियरिंग देखें.

डिस्ट्रिब्यूशन

किसी दी गई वैल्यू के लिए, अलग-अलग वैल्यू की फ़्रीक्वेंसी और रेंज सुविधा या लेबल का इस्तेमाल करें. डिस्ट्रिब्यूशन से पता चलता है कि किसी खास वैल्यू के होने की कितनी संभावना है.

नीचे दी गई इमेज में दो अलग-अलग डिस्ट्रिब्यूशन के हिस्टोग्राम दिखाए गए हैं:

  • बाईं ओर, शक्ति के नियमों के हिसाब से लोगों की संख्या के मुकाबले संपत्ति का बंटवारा जिनके पास यह संपत्ति थी.
  • दाईं ओर, लंबाई के मुकाबले लोगों की संख्या का सामान्य डिस्ट्रिब्यूशन इतनी ऊंचाई तक नहीं जाना.

दो हिस्टोग्राम. एक हिस्टोग्राम में दिखाया गया है कि पावर लॉ डिस्ट्रिब्यूशन के साथ
          x-ऐक्सिस पर संपत्ति और
          y-ऐक्सिस. ज़्यादातर लोगों के पास बहुत कम दौलत होती है और कुछ ही लोगों के पास
          बहुत ज़्यादा दौलत हो. दूसरे हिस्टोग्राम में सामान्य डिस्ट्रिब्यूशन दिखाया जाता है
          x-ऐक्सिस पर ऊंचाई और इतनी ऊंचाई वाले लोगों की संख्या के साथ
          y-ऐक्सिस पर रखें. ज़्यादातर लोग मीन के नज़दीक मौजूद होते हैं.

हर सुविधा और लेबल के डिस्ट्रिब्यूशन को समझने से, यह तय करने में मदद मिलती है कि वैल्यू को नॉर्मलाइज़ करने और आउटलायर का पता लगाने के लिए.

वाक्यांश डिस्ट्रिब्यूशन से बाहर वह वैल्यू है जो डेटासेट हो या ऐसा बहुत कम होता हो. उदाहरण के लिए, शनि ग्रह की इमेज जिसे बिल्लियों की इमेज वाले डेटासेट के लिए डिस्ट्रिब्यूशन से बाहर माना गया है.

डिवाइक्टिव क्लस्टरिंग

#clustering

हैरारकल क्लस्टरिंग देखें.

डाउनसैंपलिंग

#image

ओवरलोडेड टर्म, जिसका इनमें से कोई एक मतलब हो सकता है:

  • किसी सुविधा में मौजूद जानकारी को कम करके ताकि मॉडल को बेहतर तरीके से ट्रेन किया जा सके. उदाहरण के लिए, ट्रेनिंग लेने से पहले, इमेज की पहचान करने वाले मॉडल को ट्रेनिंग दें. इसके बाद, हाई-रिज़ॉल्यूशन के सैंपल को डाउनसैंपल करें कम रिज़ॉल्यूशन वाली इमेज में.
  • ऐसे डिवाइसों पर ट्रेनिंग देना जिनका प्रतिशत ज़रूरत से ज़्यादा प्रतिनिधित्व किया जाता है क्लास ताकि उन क्लास के लिए मॉडल ट्रेनिंग को बेहतर बनाया जा सके जिनके पास ज़्यादा प्रतिनिधित्व नहीं होता. उदाहरण के लिए, क्लास-असंतुलित डेटासेट, मॉडल को आम तौर पर मुख्य वर्ग और अल्पसंख्यक वर्ग. डाउनसैंपलिंग से मदद मिलती है ज़्यादातर और अल्पसंख्यक क्लास के बीच ट्रेनिंग को संतुलित कर सकता है.

डेटासेट: असंतुलित डेटासेट देखें.

DQN

#rl

Deep Q-Network का शॉर्ट फ़ॉर्म.

सर्वे बीच में छोड़ने वाले लोगों के लिए रेगुलराइज़ेशन

ट्रेनिंग के दौरान इस्तेमाल होने वाले रेगुलराइज़ेशन का एक तरीका न्यूरल नेटवर्क. ड्रॉपआउट रेगुलराइज़ेशन किसी नेटवर्क में यूनिट की तय संख्या को बिना किसी क्रम के चुने गए विकल्प से हटा देता है एक ग्रेडिएंट चरण के लिए लेयर. जितनी ज़्यादा यूनिट छोड़ी गईं, उतना ही मज़बूत होगा रेगुलराइज़ेशन के बारे में ज़्यादा जानें. यह नेटवर्क, छोटे नेटवर्क का तेज़ी से बड़ा कलेक्शन. पूरी जानकारी के लिए, यह देखें ड्रॉपआउट: न्यूरल नेटवर्क को रोकने का एक आसान तरीका ओवरफ़िटिंग.

डाइनैमिक

#fundamentals

कोई ऐसा काम जो बार-बार किया जाता हो या लगातार किया जाता हो. मशीन लर्निंग में, डाइनैमिक और ऑनलाइन शब्दों का समानार्थी मतलब होता है. मशीन में डाइनैमिक और ऑनलाइन इस्तेमाल के कुछ सामान्य तरीके नीचे दिए गए हैं सीखना:

  • डाइनैमिक मॉडल (या ऑनलाइन मॉडल) एक मॉडल होता है जिसे बार-बार या लगातार ट्रेनिंग दी जाती है.
  • डाइनैमिक ट्रेनिंग या ऑनलाइन ट्रेनिंग, ट्रेनिंग की प्रोसेस है बार-बार या लगातार.
  • डाइनैमिक अनुमान (या ऑनलाइन अनुमान) ऐसी प्रोसेस है मांग पर अनुमान जनरेट करना.

डाइनैमिक मॉडल

#fundamentals

कोई मॉडल, जो बार-बार दिखता हो. ऐसा लगातार भी हो सकता है ट्रेनिंग दी गई. डाइनैमिक मॉडल, "हमेशा सीखते रहने वाला" होता है वह लगातार बदलते डेटा के हिसाब से ढल जाता है. डाइनैमिक मॉडल को ऑनलाइन मॉडल.

स्टैटिक मॉडल से कंट्रास्ट अलग हो.

E

ईगर एक्ज़ीक्यूशन

#TensorFlow

TensorFlow का प्रोग्रामिंग एनवायरमेंट, जिसमें ऑपरेशन की सुविधा उपलब्ध है तुरंत लागू हो जाएगा. इसके उलट, ऑपरेशन के नाम ग्राफ़ एक्ज़ीक्यूशन तब तक नहीं चलता, जब तक वे साफ़ तौर पर नहीं दिखाए जाते मूल्यांकन किया गया. तुरंत निष्पादन एक ज़रूरी इंटरफ़ेस, बहुत कुछ के कोड की तरह होना चाहिए. ऐसे प्रोग्राम जो जल्द ही लागू किए जाएंगे आम तौर पर, ग्राफ़ एक्ज़ीक्यूशन प्रोग्राम के मुकाबले डीबग करना ज़्यादा आसान होता है.

समय से पहले रुकने की जगह

#fundamentals

नियमित करने का तरीका, जिसके आखिर में शामिल होता है ट्रेनिंग में हार जाने से पहले ट्रेनिंग घटते क्रम में. जल्दी बंद होने पर, आपने जान-बूझकर मॉडल को ट्रेनिंग देना बंद कर दिया जब पुष्टि करने वाले डेटासेट में नुकसान होना शुरू हो जाता है increase; इसका मतलब है कि सामान्य वजहों से परफ़ॉर्मेंस खराब हो जाती है.

पृथ्वी मूवर की दूरी (ईएमडी)

दो डिस्ट्रिब्यूशन की मिलती-जुलती समानता का पैमाना. पृथ्वी मूवर की दूरी जितनी कम होगी, डिस्ट्रिब्यूशन उतना ही ज़्यादा होगा.

दूरी में बदलाव करें

#language

एक जैसी दो टेक्स्ट स्ट्रिंग एक-दूसरे से कितनी मिलती-जुलती हैं. मशीन लर्निंग में, दूरी में बदलाव करना फ़ायदेमंद होता है, क्योंकि और दो स्ट्रिंग की तुलना करने का एक असरदार तरीका है. मिलती-जुलती स्ट्रिंग खोजने के लिए.

दूरी में बदलाव करने की कई परिभाषाएं दी गई हैं. हर परिभाषा के लिए अलग स्ट्रिंग का इस्तेमाल किया जाता है कार्रवाइयां. उदाहरण के लिए, लेवेंशेन की दूरी कम से कम हटाना, डालना, और स्थानापन्न ऑपरेशन पर विचार करता है.

उदाहरण के लिए, "दिल" शब्दों के बीच लेवेनशेटिन की दूरी और "डार्ट" 3 है क्योंकि निम्न 3 संपादन एक शब्द में सबसे कम परिवर्तन हैं दूसरे में:

  1. दिल → डीआर्ट ("h" को "d" से बदलें)
  2. डीआर्ट → डार्ट (मिटाएं "e")
  3. डार्ट → डार्ट ("s" डालें)

आइनसम नोटेशन

दो टेन्सर के बनने की जानकारी देने के लिए, एक कारगर नोटेशन संयुक्त. टेंसर को एक टेंसर के तत्वों को गुणा करके जोड़ा जाता है दूसरे टेंसर के एलिमेंट के आधार पर प्रॉडक्ट को जोड़ें. आइनसम नोटेशन हर टेंसर के ऐक्सिस की पहचान करने के लिए, सिंबल का इस्तेमाल करता है और यही चिह्न नए टेंसर का आकार तय करने के लिए फिर से व्यवस्थित किया जाता है.

NumPy एक सामान्य Einsum लागू करता है.

एम्बेडिंग लेयर

#language
#fundamentals

एक विशेष छिपी हुई लेयर जो बड़े पैमाने पर उपलब्ध कैटगरिकल सुविधा का इस्तेमाल करके, लोअर डाइमेंशन एम्बेडिंग वेक्टर को धीरे-धीरे सीखें. अगर आप एम्बेडिंग लेयर की मदद से, न्यूरल नेटवर्क को बेहतर तरीके से ट्रेनिंग देने में मदद मिलती है न कि सिर्फ़ हाई-डाइमेंशन वाली कैटगरी वाली सुविधा पर ट्रेनिंग देने से ज़्यादा.

उदाहरण के लिए, फ़िलहाल Earth, पेड़ों की करीब 73,000 प्रजातियों का समर्थन करती है. मान लें आपके मॉडल में मौजूद पेड़ों की संख्या एक सुविधा है. इसलिए, आपके मॉडल इनपुट लेयर में वन-हॉट वेक्टर 73,000 शामिल है एलिमेंट की अवधि बढ़ाएं. उदाहरण के लिए, शायद baobab कुछ ऐसा दिखाया जाएगा:

73,000 एलिमेंट का कलेक्शन. पहले 6,232 एलिमेंट में वैल्यू होती है
     0. अगले एलिमेंट की वैल्यू 1 होती है. आखिरी 66,767 एलिमेंट में
     वैल्यू शून्य है.

73,000 एलिमेंट का अरे बहुत लंबा होता है. अगर आप एम्बेडिंग लेयर नहीं जोड़ते हैं, तो मॉडल की तुलना में, ट्रेनिंग में काफ़ी समय लगेगा. ऐसा इसलिए है, क्योंकि 72,999 शून्यों को गुणा करना. हो सकता है कि आप शामिल करने के लिए एम्बेडिंग लेयर को चुनें 12 डाइमेंशन चुने जा सकते हैं. ऐसा करने से, एम्बेडिंग लेयर धीरे-धीरे पेड़ की हर प्रजाति के लिए एक नया एम्बेड वेक्टर.

कुछ मामलों में, हैशिंग एक सही विकल्प है को एम्बेड करने वाली लेयर पर ले जाया जा सकता है.

एम्बेड करने की सुविधा देखें देखें.

एम्बेड करने की जगह

#language

डी-डाइमेंशन वाला वेक्टर स्पेस, जो हाई-डायमेंशनल से मिलता-जुलता है वेक्टर स्पेस को मैप किया जाता है. आम तौर पर, एम्बेड करने की जगह में ऐसी संरचना जो गणित के अर्थ वाले नतीजे देती हो; उदाहरण के लिए, इसमें वीडियो को एम्बेड करने की सबसे अच्छी जगह मिलती है. शब्दों की तुलना करने वाले टास्क हल कर सकते हैं.

बिंदु वाला प्रॉडक्ट की दो इमेज, एक-दूसरे से जुड़ी होती हैं.

एम्बेडिंग वेक्टर

#language

आम तौर पर, किसी भी फ़्लोटिंग-पॉइंट नंबर की कलेक्शन छिपी हुई लेयर, जो उस छिपी हुई लेयर के इनपुट के बारे में बताती है. अक्सर, एक एम्बेडिंग वेक्टर, फ़्लोटिंग-पॉइंट संख्याओं का कलेक्शन होता है एक एम्बेडिंग लेयर. उदाहरण के लिए, मान लें कि एम्बेडिंग लेयर को पृथ्वी पर पेड़ की 73,000 प्रजातियों में से हर एक के लिए एम्बेडिंग वेक्टर. शायद नीचे दी गई अरे बेओबैब ट्री के लिए एम्बेडिंग वेक्टर है:

12 एलिमेंट का कलेक्शन, जिनमें से हर एलिमेंट में फ़्लोटिंग-पॉइंट नंबर है
          0.0 और 1.0 के बीच.

एम्बेडिंग वेक्टर, रैंडम नंबरों का ग्रुप नहीं होता. एम्बेडिंग लेयर ट्रेनिंग के ज़रिए इन वैल्यू को तय करता है. यह वैसे ही होता है जैसे न्यूरल नेटवर्क को ट्रेनिंग के दौरान अन्य चीज़ों के बारे में पता चलता है. इसका हर एक एलिमेंट अरे, पेड़ की प्रजातियों की कुछ खासियतों के साथ मिलने वाली रेटिंग है. कौनसा एलिमेंट दिखाता है कि किस पेड़ की प्रजाति' विशेषता? यह बहुत मुश्किल है तय करें.

एम्बेडिंग वेक्टर का गणितीय तौर पर सबसे अहम हिस्सा यह है कि आइटम में फ़्लोटिंग-पॉइंट संख्याओं के समान सेट होते हैं. उदाहरण के लिए, मिलते-जुलते पेड़ों की प्रजातियों की संख्या, फ़्लोटिंग-पॉइंट संख्याओं के सेट से ज़्यादा मिलती-जुलती होती है पेड़ों की अलग-अलग किस्में हैं. रेडवुड और सिक्वॉया, एक-दूसरे से संबंधित पेड़ों की प्रजातियां हैं. इसलिए, उनके पास फ़्लोटिंग-पॉइंटिंग नंबरों का सेट रेडवुड और नारियल के पेड़. एम्बेडिंग वेक्टर में संख्याएं मॉडल को फिर से ट्रेनिंग देते समय, हर बार मॉडल को बदला जाए, भले ही आप मॉडल को फिर से ट्रेनिंग दें एक जैसे इनपुट के साथ.

एंपिरिकल क्यूमुलेटिव डिस्ट्रिब्यूशन फ़ंक्शन (eCDF या EDF)

कुल डिस्ट्रिब्यूशन फ़ंक्शन जो असली डेटासेट के अनुभवात्मक माप पर आधारित है. इस कीवर्ड का मान x-ऐक्सिस पर किसी भी पॉइंट पर किया गया फ़ंक्शन, वह डेटासेट जो बताई गई वैल्यू से कम या उसके बराबर हो.

इमपिरिकल रिस्क मिनिमाइज़ेशन (ईआरएम)

ऐसा फ़ंक्शन चुनना जो ट्रेनिंग सेट में होने वाले नुकसान को कम से कम करता हो. कॉन्ट्रास्ट संरचना से जुड़े जोखिम को कम करने के बारे में आपको बताएंगे.

एन्कोडर

#language

आम तौर पर, कोई भी एमएल सिस्टम जो रॉ, स्पार्स या एक्सटर्नल से कन्वर्ट होता है और ज़्यादा प्रोसेस, सघन या ज़्यादा अंदरूनी रूप से दिखाना.

एन्कोडर अक्सर किसी बड़े मॉडल का हिस्सा होता है, जहां अक्सर डीकोडर के साथ जुड़ा हो. कुछ ट्रांसफ़ॉर्मर एन्कोडर को डिकोडर के साथ जोड़ें, हालांकि दूसरे ट्रांसफ़ॉर्मर सिर्फ़ एन्कोडर का इस्तेमाल करते हैं या सिर्फ़ डिकोडर.

कुछ सिस्टम, कैटगरी तय करने के लिए इनपुट के तौर पर एन्कोडर के आउटपुट का इस्तेमाल करते हैं या रिग्रेशन नेटवर्क.

सिलसिलेवार टास्क में, एक एन्कोडर इनपुट क्रम लेता है और एक अंदरूनी स्थिति (वेक्टर) देता है. इसके बाद, डीकोडर उस अंदरूनी स्थिति का इस्तेमाल करके, अगले क्रम का अनुमान लगाता है.

किसी एन्कोडर की परिभाषा जानने के लिए, Transformer देखें देखें.

एलएलएम: बड़ी भाषा कौनसी होती है मॉडल देखें.

एन्सेम्बल

ऐसे मॉडल का कलेक्शन जिन्हें स्वतंत्र रूप से ट्रेनिंग दी गई है और जिनके अनुमान औसत या एग्रीगेट किए गए होते हैं. कई मामलों में, कलाकारों का ग्रुप बेहतर होता है . उदाहरण के लिए, रैंडम फ़ॉरेस्ट कई फ़ॉर्मैट से बनाया गया ग्रुप है डिसिज़न ट्री. ध्यान दें कि सभी डिसिज़न फ़ॉरेस्ट असेंबली है.

बिना किसी क्रम के जंगल देखें.

एन्ट्रॉपी

#df

तय सीमा में इन्फ़ॉर्मेशन थ्योरी के तहत, संभाव्यता का अनुमान लगाना डिस्ट्रिब्यूशन है. इसके अलावा, एंट्रॉपी से यह भी पता चलता है कि हर उदाहरण में मौजूद जानकारी. डिस्ट्रिब्यूशन में ये शामिल हैं उच्चतम संभावित एंट्रॉपी जब किसी यादृच्छिक चर के सभी मान होते हैं समान रूप से संभावना होती है.

दो संभावित वैल्यू "0" वाले किसी सेट की एन्ट्रॉपी और "1" (उदाहरण के लिए, बाइनरी क्लासिफ़िकेशन से जुड़े लेबल में) इसका फ़ॉर्मूला यह है:

H = -p लॉग p - q लॉग q = -p लॉग p - (1-p) * लॉग (1-p)

कहां:

  • H एंट्रॉपी है.
  • p, "1" का अंश है उदाहरण.
  • q, "0" का अंश है उदाहरण. ध्यान दें कि q = (1 - p)
  • आम तौर पर, log फ़ंक्शन लॉग2 होता है. इस मामले में, एंट्रॉपी यूनिट थोड़ी-बहुत है.

उदाहरण के लिए, मान लें कि:

  • 100 उदाहरणों में "1" वैल्यू शामिल है
  • 300 उदाहरणों में "0" वैल्यू है

इसलिए, एंट्रॉपी की वैल्यू यह है:

  • p = 0.25
  • q = 0.75
  • H = (-0.25)लॉग2(0.25) - (0.75)लॉग2(0.75) = हर उदाहरण के लिए 0.81 बिट

ऐसा सेट जो पूरी तरह से संतुलित हो (उदाहरण के लिए, 200 "0" और 200 "1"s) हर उदाहरण के लिए 1.0 बिट की एंट्रॉपी होगी. जैसे-जैसे सेट ज़्यादा होता है असंतुलित, इसकी एंट्रॉपी 0.0 की ओर बढ़ जाती है.

डिसिज़न ट्री में, एंट्रॉपी फ़ॉर्मूला बनाने में मदद करता है जानकारी हासिल करने के लिए स्प्लिटर शर्तें चुनें डिसिज़न ट्री की बढ़ोतरी के चरण में.

एंट्रॉपी की तुलना इनसे करें:

एंट्रॉपी को अक्सर शैनन एंट्रॉपी कहा जाता है.

संख्याओं वाले बाइनरी क्लासिफ़िकेशन के लिए सटीक स्प्लिटर देखें सुविधाएं पर जाएं.

वातावरण

#rl

रीइन्फ़ोर्समेंट लर्निंग में, ऐसी दुनिया जहां एजेंट मौजूद होता है साथ ही, इससे एजेंट को दुनिया के राज्य के बारे में पता चलता है. उदाहरण के लिए, यहां शतरंज का खेल या असली दुनिया जैसा भूलभुलैया. जब एजेंट, एनवायरमेंट पर कोई कार्रवाई लागू करता है, तब अलग-अलग स्थितियों के बीच एनवायरमेंट का ट्रांज़िशन होता है.

एपिसोड

#rl

रीइन्फ़ोर्समेंट लर्निंग में, agent का इस्तेमाल, एनवायरमेंट के बारे में जानने के लिए किया जाएगा.

epoch

#fundamentals

पूरे ट्रेनिंग सेट के लिए पूरा ट्रेनिंग पास इस तरह हर उदाहरण को एक बार प्रोसेस कर दिया गया है.

Epoch N/बैच साइज़ को दिखाता है ट्रेनिंग इटरेशन में, जहां N उदाहरणों की कुल संख्या.

उदाहरण के लिए, मान लें कि:

  • इस डेटासेट में 1,000 उदाहरण शामिल हैं.
  • बैच का साइज़ 50 उदाहरण है.

इसलिए, एक epoch को 20 बार दोहराना ज़रूरी है:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

लीनियर रिग्रेशन: हाइपर पैरामीटर देखें.

एप्सिलॉन लालची नीति

#rl

रीइन्फ़ोर्समेंट लर्निंग में, एक ऐसी नीति जो एप्सिलॉन प्रॉबबिलिटी के साथ रैंडम नीति या लालची से जुड़ी नीति का उल्लंघन न हो. उदाहरण के लिए, यदि एप्सिलॉन 0.9 है, तो नीति 90% मामलों में किसी भी क्रम में बनी नीति का पालन करती है और लालची 10% मामलों में नीति का पालन करता है.

एल्गोरिदम, एपिसोड के क्रम में एपसिलॉन की वैल्यू को कम करता है इसके बजाय, लालची नीति का पालन किया जाना चाहिए. इन्होंने बदलाव किया है नीति में बदलाव करते समय, एजेंट पहले बिना किसी क्रम के पर्यावरण को एक्सप्लोर करता है और फिर लालच में बिना किसी क्रम के एक्सप्लोरेशन के नतीजों का फ़ायदा उठाने की कोशिश करती है.

अवसर की समानता

#fairness

फ़ेयरनेस मेट्रिक, जिससे यह आकलन किया जा सके कि मॉडल वैल्यू के सभी मानों के लिए ज़रूरी नतीजे का समान रूप से अनुमान लगाना संवेदनशील एट्रिब्यूट का इस्तेमाल करें. दूसरे शब्दों में, अगर पॉज़िटिव क्लास ही उसे मॉडल बना सकती है, इसका लक्ष्य सही पॉज़िटिव रेट होना चाहिए सभी ग्रुप के लिए एक जैसा.

अवसरों की समानता एक जैसी स्थिति से जुड़ी होती है. इसके लिए, सही पॉज़िटिव दरें दोनों होनी चाहिए गलत पॉज़िटिव दरें सभी ग्रुप के लिए एक जैसी हैं.

मान लीजिए कि ग्लबडुब्ड्रिब यूनिवर्सिटी में लिलिपुटियन और ब्रोबडिंगनाजियन, दोनों को एडमिशन दिया जाता है एक सख्त गणित कार्यक्रम में डिज़ाइन किया है. लिलिपुटियन का सेकंडरी स्कूल गणित की क्लास का बेहतरीन पाठ्यक्रम और ज़्यादातर छात्र-छात्राएं यूनिवर्सिटी प्रोग्राम में शामिल होने के लिए क्वालीफ़ाई किया था. ब्रोबडिंगनैजियन लोग माध्यमिक स्कूल यह नहीं करते कि वे गणित की क्लास नहीं देते हैं और इस वजह से, उनके छात्र-छात्राओं की संख्या बहुत कम है योग्य. अवसर की समानता इसके पसंदीदा लेबल के लिए संतुष्ट है "स्वीकार किया गया" राष्ट्रीयता के संबंध में (लिलिपुटियन या ब्रोबडिंगनाजियन) अगर योग्यता पूरी करने वाले छात्र-छात्राओं को समान रूप से दाखिला लेने की संभावना होती है, भले ही वे लिलिपुटियन या ब्रोबडिंगनैजियन हैं.

उदाहरण के लिए, मान लें कि 100 लिलिपुटियन और 100 ब्रोबडिंगनाजियन ग्लबडुब्ड्रिब यूनिवर्सिटी और दाखिले से जुड़े फ़ैसले इस तरह लिए जाते हैं:

टेबल 1. लिलिपुटियन आवेदक (90% योग्य हैं)

  क्वालिफ़ाई हुई अयोग्य
अनुमति दी गई 45 3
अस्वीकार किया गया 45 7
कुल 90 10
मंज़ूरी पा चुके छात्र-छात्राओं का प्रतिशत: 45/90 = 50%
नहीं हटाए गए छात्र-छात्राओं का प्रतिशत: 7/10 = 70%
लिलिपुटियन छात्र-छात्राओं का कुल प्रतिशत: (45+3)/100 = 48%

 

दूसरी टेबल. ब्रोबडिंगनाजियन आवेदक (10% योग्य हैं):

  क्वालिफ़ाई हुई अयोग्य
अनुमति दी गई 5 9
अस्वीकार किया गया 5 81
कुल 10 90
स्वीकार किए गए छात्र-छात्राओं का प्रतिशत: 5/10 = 50%
नहीं हटाए गए छात्र-छात्राओं का प्रतिशत अस्वीकार किए जाने का प्रतिशत: 81/90 = 90%
ब्रोबडिंगनाजियन छात्र-छात्राओं का कुल प्रतिशत: (5+9)/100 = 14%

ऊपर दिए गए उदाहरण, क्वालिफ़ाई हुए छात्र-छात्राएं, क्योंकि लिलिपुटियन और ब्रोबडिंगनेगियन, दोनों उन्हें शामिल होने की संभावना 50% होती है.

सबको समान अवसर मिलते हैं, लेकिन निष्पक्षता से जुड़ी ये दो मेट्रिक संतुष्ट नहीं हैं:

  • डेमोग्राफ़िक (उम्र, लिंग, आय, शिक्षा वगैरह) समानता: लिलीपुटियन और ब्रोबडिंगनेजियन लोगों को अलग-अलग दरों पर, यूनिवर्सिटी में एडमिशन मिलता है; लिलीपुटियन के 48% छात्र-छात्राएं ही इस कोर्स में शामिल हैं, लेकिन सिर्फ़ 14% ही ब्रोबडिंगनैजियन छात्र-छात्राओं को अनुमति है.
  • समान ऑड्स: क्वालिफ़ाइड लिलिपुटियन और ब्रोबडिंगनाजियन छात्र-छात्राएं, दोनों में एडमिशन लेने के समान अवसर हैं, एक अतिरिक्त शर्त है कि योग्यता पूरी करने वाले लिलीपुटियन और ब्रोबडिंगनैजियन दोनों में अस्वीकार किए जाने का बराबर मौका होता है संतुष्ट. काबिल लिलीपुटियन के लिए, 70% डिसक्लेमर रेट मिलता है. हालांकि, काबिल ब्रोबडिंगनाजियन के लिए, आवेदन अस्वीकार होने की दर 90% है.

देखें निष्पक्षता: समानता अवसर देखें.

इक्वलाइज़्ड ऑड्स

#fairness

यह आकलन करने के लिए निष्पक्षता मेट्रिक कि कोई मॉडल, नतीजों का बराबर अनुमान लगा रहा है या नहीं यह संवेदनशील एट्रिब्यूट की सभी वैल्यू के लिए सही है. पॉज़िटिव क्लास और नेगेटिव क्लास—न कि सिर्फ़ एक क्लास या दूसरी क्लास खास तौर पर. दूसरे शब्दों में, ट्रू पॉज़िटिव रेट, दोनों और फ़ॉल्स नेगेटिव रेट इनके लिए एक जैसा होना चाहिए सभी समूह.

बराबर संभावना वाले नतीजे इससे जुड़े हैं अवसरों को समानता: गड़बड़ी की दरों पर क्लिक करता है (पॉज़िटिव या नेगेटिव).

उदाहरण के लिए, मान लें कि ग्लबडुब्ड्रिब यूनिवर्सिटी लिलिपुटियन और ब्रोबडिंगनेजियन लोगों के गणित के सख्त प्रोग्राम में हिस्सा लें. लिलिपुटियन का सेकंडरी स्कूलों में गणित की क्लास का दमदार पाठ्यक्रम उपलब्ध कराया जाता है. छात्र-छात्राएं, यूनिवर्सिटी प्रोग्राम में शामिल हो सकते हैं. ब्रोबडिंगनैजियन लोग सेकंडरी स्कूलों में गणित की कक्षाएं नहीं चलती हैं. इसी वजह से, बहुत कम और उनके छात्र-छात्राएं क्वालिफ़ाई हो गए हैं. सभी संभावना का एक जैसा मिलान हो जाता है, बशर्ते कोई यह मायने रखता है कि आवेदक लिलिपुटियन है या ब्रोबडिंगनाजियन, अगर वह उन्हें प्रोग्राम में शामिल किए जाने की संभावना बराबर होती है. और अगर वे योग्य नहीं हैं, तो उनके अस्वीकार किए जाने की संभावना भी बराबर होती है.

मान लें कि 100 लिलिपुटियन और 100 ब्रोबडिंगनाजियन, ग्लबडब्ड्रिब पर आवेदन करते हैं यूनिवर्सिटी और दाखिले से जुड़े फ़ैसले इस तरह लिए जाते हैं:

तीसरी टेबल. लिलिपुटियन आवेदक (90% योग्य हैं)

  क्वालिफ़ाई हुई अयोग्य
अनुमति दी गई 45 2
अस्वीकार किया गया 45 8
कुल 90 10
मंज़ूरी पा चुके छात्र-छात्राओं का प्रतिशत: 45/90 = 50%
नहीं हटाए गए छात्र-छात्राओं का प्रतिशत: 8/10 = 80%
लिलिपुटियन छात्र-छात्राओं का कुल प्रतिशत: (45+2)/100 = 47%

 

टेबल 4. ब्रोबडिंगनाजियन आवेदक (10% योग्य हैं):

  क्वालिफ़ाई हुई अयोग्य
अनुमति दी गई 5 18
अस्वीकार किया गया 5 72
कुल 10 90
स्वीकार किए गए छात्र-छात्राओं का प्रतिशत: 5/10 = 50%
नहीं पढ़े जाने वाले छात्र-छात्राओं का प्रतिशत अस्वीकार किए जाने का प्रतिशत: 72/90 = 80%
ब्रोबडिंगनाजियन छात्र-छात्राओं का कुल प्रतिशत: (5+18)/100 = 23%

क्वालिफ़ाई हुई लिलिपुटियन और ब्रोबडिंगनैजियन की वजह से, सभी नतीजे एक जैसे हैं दोनों छात्र-छात्राओं के पास, एडमिशन के लिए 50% संभावना और योग्यता न पाने वाले लिलिपुटियन हैं और Brobdingnagian में, आवेदन अस्वीकार होने की 80% संभावना है.

बराबर संख्याओं को औपचारिक रूप से इसमें परिभाषित किया गया है "समानता सुपरवाइज़्ड लर्निंग में अवसर" के बारे में यहां बताया गया है: "पूर्वानुमान तऊनी के पूरे होने के बाद भी, का इस्तेमाल किया जाता है, तो Y पर आधारित है."

एस्टिमेटर

#TensorFlow

ऐसा TensorFlow एपीआई जो अब काम नहीं करता. इसके बजाय, tf.keras का इस्तेमाल करें का अनुमान लगा सकते हैं.

ईवल

#language
#generativeAI

मुख्य रूप से, इसका इस्तेमाल एलएलएम इवैलुएशन के छोटे नाम के तौर पर किया जाता है. ज़्यादा शब्दों में कहें, तो एवल, आकलन.

आकलन

#language
#generativeAI

किसी मॉडल की क्वालिटी को मापने या अलग-अलग मॉडल की तुलना करने की प्रोसेस एक-दूसरे के ख़िलाफ़ लड़ते रहें.

सुपरवाइज़्ड मशीन लर्निंग का आकलन करने के लिए मॉडल है, तो आम तौर पर इसे पुष्टि करने के सेट के हिसाब से माना जाता है और एक टेस्ट सेट. एलएलएम का आकलन करना आम तौर पर, इसमें क्वालिटी और सुरक्षा से जुड़े आकलन शामिल होते हैं.

उदाहरण

#fundamentals

सुविधाओं की एक पंक्ति की वैल्यू और शायद लेबल. इसमें उदाहरण सुपरवाइज़्ड लर्निंग के दो लेवल सामान्य कैटगरी:

  • लेबल किए गए उदाहरण में एक या एक से ज़्यादा सुविधाएं होती हैं और एक लेबल. ट्रेनिंग के दौरान लेबल किए गए उदाहरणों का इस्तेमाल किया जाता है.
  • बिना लेबल वाले उदाहरण में एक या ज़्यादा सुविधाएं उपलब्ध हैं, लेकिन कोई लेबल नहीं. बिना लेबल वाले उदाहरणों का इस्तेमाल, अनुमान लगाने के लिए किया जाता है.

उदाहरण के लिए, मान लें कि आप किसी मॉडल को ट्रेनिंग के दौरान और छात्र-छात्राओं के टेस्ट स्कोर के बारे में जानकारी दी. लेबल किए गए तीन उदाहरण यहां दिए गए हैं:

सुविधाएं लेबल
तापमान नमी दबाव टेस्ट के स्कोर
15 47 998 अच्छा
19 34 1020 बहुत बढ़िया
18 92 1012 खराब

यहां बिना लेबल वाले तीन उदाहरण दिए गए हैं:

तापमान नमी दबाव  
12 62 1014  
21 47 1017  
19 41 1021  

उदाहरण के लिए, आम तौर पर डेटासेट की लाइन, रॉ सोर्स होती है. उदाहरण के लिए, आम तौर पर इसमें कॉलम का एक सबसेट शामिल होता है डेटासेट. इसके अलावा, उदाहरण में दी गई सुविधाओं में ये चीज़ें भी शामिल हो सकती हैं सिंथेटिक सुविधाएं, जैसे कि सुविधा क्रॉस.

इसमें सुपरवाइज़्ड लर्निंग देखें ज़्यादा जानकारी के लिए, मशीन लर्निंग कोर्स के बारे में जानकारी.

एक्सपीरियंस रीप्ले

#rl

रीइन्फ़ोर्समेंट लर्निंग में, DQN तकनीक का इस्तेमाल ट्रेनिंग डेटा में समय के बीच के संबंध को कम कर सकता है. एजेंट स्टेटस ट्रांज़िशन को रीप्ले बफ़र में सेव करता है और ट्रेनिंग डेटा बनाने के लिए, रीप्ले बफ़र से सैंपल ट्रांज़िशन का इस्तेमाल करता है.

एक्सपेरिमेंट करने वाले का पक्षपात

#fairness

पुष्टि करने से जुड़े मापदंड देखें.

एक्सप्लोडिंग ग्रेडिएंट से जुड़ी समस्या

#seq

आम तौर पर, ग्रेडिएंट डीप न्यूरल नेटवर्क (खास तौर पर) बार-बार होने वाले न्यूरल नेटवर्क) के लिए बहुत ज़्यादा तीखा (ज़्यादा). खड़ी ग्रेडिएंट की वजह से अक्सर बहुत बड़े अपडेट होते हैं वेट की हर node की डीप न्यूरल नेटवर्क है.

विस्फोट होने के ग्रेडिएंट की समस्या से जूझ रहे मॉडल का काम करना मुश्किल हो जाता है या ट्रेनिंग करना नामुमकिन है. ग्रेडिएंट क्लिपिंग इस समस्या को कम कर सकता है.

खत्म हो रहे ग्रेडिएंट की समस्या से तुलना करें.

F

फ़ॉर्मूला1

"रोल-अप" बाइनरी क्लासिफ़िकेशन मेट्रिक यह सटीक और कॉल, दोनों पर निर्भर करता है. इसका फ़ॉर्मूला यहां दिया गया है:

$$F{_1} = \frac{\text{2 * precision * recall}} {\text{precision + recall}}$$

उदाहरण के लिए, यहां दी गई जानकारी देखें:

  • सटीक = 0.6
  • रीकॉल = 0.4
$$F{_1} = \frac{\text{2 * 0.6 * 0.4}} {\text{0.6 + 0.4}} = 0.48$$

जब प्रिसिज़न और रीकॉल काफ़ी हद तक एक जैसे हों (जैसा कि पिछले उदाहरण में बताया गया है), F1, अपने मीन के करीब है. जब सटीक हो और बाज़ार को याद करने का समय अलग हो काफ़ी हद तक, F1 कम वैल्यू के करीब है. उदाहरण के लिए:

  • सटीक = 0.9
  • रीकॉल = 0.1
$$F{_1} = \frac{\text{2 * 0.9 * 0.1}} {\text{0.9 + 0.1}} = 0.18$$

निष्पक्षता का दायरा

#fairness
एक या उससे ज़्यादा परिभाषाएं पक्का करने के लिए, एल्गोरिदम में कंस्ट्रेंट लागू करना वे निष्पक्षता से पूरी तरह से संतुष्ट हैं. निष्पक्षता से जुड़ी शर्तों के उदाहरण:

फ़ेयरनेस मेट्रिक

#fairness

गणित के हिसाब से "फ़ेयरनेस" की परिभाषा जिसे मापा जा सकता है. आम तौर पर, निष्पक्षता से जुड़ी ये मेट्रिक इस्तेमाल की जाती हैं:

फ़ेयरनेस वाली कई मेट्रिक, म्यूचुअली एक्सक्लूसिव होती हैं. देखें फ़ेयरनेस मेट्रिक के साथ काम न करने की वजह.

फ़ॉल्स नेगेटिव (एफ़एन)

#fundamentals

एक उदाहरण जिसमें मॉडल ग़लती से नेगेटिव क्लास. उदाहरण के लिए, मॉडल अनुमान लगाता है कि कोई खास ईमेल मैसेज स्पैम नहीं है (नेगेटिव क्लास) है, लेकिन वह ईमेल मैसेज असल में स्पैम है.

फ़ॉल्स नेगेटिव रेट

असल पॉज़िटिव उदाहरणों का अनुपात, जिनके लिए मॉडल ने गलती से नेगेटिव क्लास का अनुमान लगाया गया. यह फ़ॉर्मूला असत्य की गणना करता है नेगेटिव रेट:

$$\text{false negative rate} = \frac{\text{false negatives}}{\text{false negatives} + \text{true positives}}$$

थ्रेशोल्ड और गड़बड़ी के बारे में जानकारी देखें मैट्रिक्स देखें.

फ़ॉल्स पॉज़िटिव (एफ़पी)

#fundamentals

एक उदाहरण जिसमें मॉडल ग़लती से पॉज़िटिव क्लास. उदाहरण के लिए, मॉडल एक खास ईमेल मैसेज स्पैम (पॉज़िटिव क्लास) है, लेकिन यह ईमेल मैसेज असल में स्पैम नहीं है.

थ्रेशोल्ड और गड़बड़ी के बारे में जानकारी देखें मैट्रिक्स देखें.

फ़ॉल्स पॉज़िटिव रेट (एफ़पीआर)

#fundamentals

असल नेगेटिव उदाहरणों का अनुपात, जिनके लिए मॉडल ने गलती से ऐसा किया है पॉज़िटिव क्लास का अनुमान लगाया. यह फ़ॉर्मूला असत्य की गणना करता है पॉज़िटिव रेट:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

फ़ॉल्स पॉज़िटिव रेट, आरओसी कर्व में x-ऐक्सिस होता है.

क्लासिफ़िकेशन: ROC और AUC देखें.

सुविधा

#fundamentals

किसी मशीन लर्निंग मॉडल के लिए इनपुट वैरिएबल. एक उदाहरण इसमें एक या एक से ज़्यादा सुविधाएँ शामिल हैं. उदाहरण के लिए, मान लें कि आप किसी मॉडल का इस्तेमाल करके, छात्र-छात्राओं के टेस्ट स्कोर पर मौसम की स्थितियों का असर पता लगाया जा सकता है. नीचे दी गई टेबल में तीन उदाहरण दिए गए हैं. हर उदाहरण में तीन सुविधाएँ और एक लेबल:

सुविधाएं लेबल
तापमान नमी दबाव टेस्ट के स्कोर
15 47 998 92
19 34 1020 84
18 92 1012 87

लेबल से अलग करें.

सुपरवाइज़्ड लर्निंग देखें ज़्यादा जानकारी के लिए, मशीन लर्निंग कोर्स के बारे में जानकारी देखें.

फ़ीचर क्रॉस

#fundamentals

"क्रॉसिंग" से बनाई गई सिंथेटिक सुविधा कैटगरिकल या बकेट की गई सुविधाएं.

उदाहरण के लिए, "मूड का पूर्वानुमान" इस्तेमाल करें जो यहां दिए गए चार बकेट में से किसी एक में तापमान:

  • freezing
  • chilly
  • temperate
  • warm

और यहां दी गई तीन बकेट में से किसी एक में हवा की रफ़्तार का पता लगाता है:

  • still
  • light
  • windy

फ़ीचर क्रॉस के बिना, लीनियर मॉडल जिसमें सात अलग-अलग बाल्टी आ गई थी. इसलिए, उदाहरण के लिए, मॉडल freezing, ट्रेनिंग से अलग हैं. उदाहरण के लिए, windy.

इसके अलावा, आप एक ऐसा फ़ीचर क्रॉस ऑफ़ टेंपरेचर बना सकते हैं जिसमें हवा की रफ़्तार. इस सिंथेटिक सुविधा की मदद से, मान:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

क्रॉस फ़ीचर की मदद से, मॉडल को मूड के अंतर को समझने में मदद मिली freezing-windy दिन से freezing-still दिन के बीच.

अगर दो तरह की एआई से जनरेट की गई किसी सुविधा को बनाया जाता है, जिसमें हर एक में अलग-अलग बकेट, जो कि एक फ़ीचर क्रॉस है, यहां दिखाई गई सभी झलक सिर्फ़ उदाहरण हैं. उदाहरण के लिए, अगर किसी सुविधा में 1,000 बकेट हैं और अन्य सुविधा में 2,000 बकेट हैं, और इससे बने फ़ीचर क्रॉस में 2,000,000 बकेट हैं बकेट.

औपचारिक रूप से, क्रॉस एक कार्टीज़न प्रॉडक्ट.

फ़ीचर क्रॉस का इस्तेमाल, ज़्यादातर लीनियर मॉडल के साथ किया जाता है. साथ ही, इनका इस्तेमाल बहुत कम किया जाता है न्यूरल नेटवर्क से कनेक्ट करता है.

कैटगरिकल डेटा: सुविधा देखें क्रॉस देखें.

फ़ीचर इंजीनियरिंग

#fundamentals
#TensorFlow

इस प्रोसेस में, ये चरण शामिल होते हैं:

  1. यह तय करना कि कौनसी सुविधाएं काम की हैं एक मॉडल को ट्रेनिंग दी.
  2. डेटासेट से रॉ डेटा को, सुविधाएं मौजूद हैं.

उदाहरण के लिए, आपके पास यह तय करने का विकल्प है कि temperature आपके काम का हो सकता है सुविधा. इसके बाद, बकेटिंग का इस्तेमाल किया जा सकता है ताकि यह ऑप्टिमाइज़ किया जा सके कि मॉडल अलग-अलग temperature रेंज से क्या सीख सकता है.

फ़ीचर इंजीनियरिंग को कभी-कभी इस नाम से जाना जाता है सुविधा एक्सट्रैक्ट करने की सुविधा या फ़ीचराइज़ेशन.

संख्या वाला डेटा: सुविधा का इस्तेमाल करके मॉडल डेटा कैसे डालता है वेक्टर देखें.

फ़ीचर एक्सट्रैक्शन

ओवरलोडेड टर्म की इनमें से कोई एक परिभाषाएं:

किसी सुविधा की अहमियत

#df

वैरिएबल की अहमियत के लिए समानार्थी शब्द.

सुविधाओं का सेट

#fundamentals

आपकी मशीन लर्निंग की सुविधाओं का ग्रुप model ट्रेन चालू है. उदाहरण के लिए, पिन कोड, प्रॉपर्टी का साइज़, और प्रॉपर्टी की स्थिति, इसमें ऐसे मॉडल के लिए एक सिंपल सुविधा का सेट होता है जो मकान की कीमतों का अनुमान लगाता है.

सुविधा की खास जानकारी

#TensorFlow

यह सुविधाओं का डेटा निकालने के लिए ज़रूरी जानकारी के बारे में बताती है tf.Example प्रोटोकॉल बफ़र से. क्योंकि tf.Example प्रोटोकॉल बफ़र, डेटा का एक कंटेनर होता है, आपको इसकी जानकारी देनी होगी निम्न:

  • एक्सट्रैक्ट किया जाने वाला डेटा (यानी, सुविधाओं की कुंजियां)
  • डेटा टाइप (उदाहरण के लिए, फ़्लोट या पूर्णांक)
  • वीडियो की लंबाई (फ़िक्स्ड या वैरिएबल)

फ़ीचर वेक्टर

#fundamentals

सुविधा की वैल्यू की कैटगरी में उदाहरण. फ़ीचर वेक्टर के दौरान इनपुट दिया जाता है ट्रेनिंग और अनुमान के दौरान. उदाहरण के लिए, दो अलग-अलग सुविधाओं वाले मॉडल के लिए फ़ीचर वेक्टर हो सकता है:

[0.92, 0.56]

चार लेयर: एक इनपुट लेयर, दो छिपी हुई लेयर, और एक आउटपुट लेयर.
          इनपुट लेयर में दो नोड होते हैं, एक में वैल्यू होती है
          0.92 और दूसरे में 0.56 की वैल्यू है.

हर उदाहरण, फ़ीचर वेक्टर के लिए अलग-अलग वैल्यू देता है, इसलिए अगले उदाहरण के लिए फ़ीचर वेक्टर कुछ ऐसा हो सकता है:

[0.73, 0.49]

फ़ीचर इंजीनियरिंग की मदद से यह तय किया जाता है कि फ़ीचर वेक्टर में सुविधाएं. उदाहरण के लिए, पांच संभावित वैल्यू, इससे जुड़ी हो सकती हैं वन-हॉट एन्कोडिंग का इस्तेमाल करें. इस मामले में, किसी उदाहरण के लिए फ़ीचर वेक्टर में चार शून्य और तीसरे पक्ष में सिंगल 1.0 को इस तरह से दिखाया गया है:

[0.0, 0.0, 1.0, 0.0, 0.0]

एक अन्य उदाहरण के रूप में, मान लें कि आपके मॉडल में तीन सुविधाएं हैं:

  • बाइनरी कैटगरी वाली सुविधा, जिसमें पांच संभावित वैल्यू दिखाई गई हैं वन-हॉट एन्कोडिंग; उदाहरण के लिए: [0.0, 1.0, 0.0, 0.0, 0.0]
  • अन्य बाइनरी कैटगरी वाली सुविधा, जिसमें तीन संभावित वैल्यू दिखाई गई हैं वन-हॉट एन्कोडिंग के साथ; उदाहरण के लिए: [0.0, 0.0, 1.0]
  • फ़्लोटिंग-पॉइंट की सुविधा; उदाहरण के लिए: 8.3.

इस मामले में, हर उदाहरण के लिए फ़ीचर वेक्टर को दिखाया जाएगा नौ वैल्यू से. अगर पिछली सूची में उदाहरण के तौर पर दी गई वैल्यू दी गई हैं, तो फ़ीचर वेक्टर यह होगा:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

संख्या वाला डेटा: सुविधा का इस्तेमाल करके मॉडल डेटा कैसे डालता है वेक्टर देखें.

फ़ीचराइज़ेशन

किसी इनपुट सोर्स से सुविधाएं एक्सट्रैक्ट करने की प्रोसेस, जैसे कोई दस्तावेज़ या वीडियो शामिल कर सकते हैं और उन सुविधाओं को फ़ीचर वेक्टर.

मशीन लर्निंग के कुछ विशेषज्ञ, सुविधा को समानार्थी शब्द के तौर पर इस्तेमाल करते हैं फ़ीचर इंजीनियरिंग या सुविधा एक्सट्रैक्ट करने की सुविधा.

फ़ेडरेटेड लर्निंग

एक डिस्ट्रिब्यूटेड मशीन लर्निंग का तरीका, जो ट्रेन करता है डीसेंट्रलाइज़्ड का इस्तेमाल करके मशीन लर्निंग मॉडल स्मार्टफ़ोन जैसे डिवाइसों पर मौजूद उदाहरण. फ़ेडरेटेड लर्निंग में, डिवाइसों का एक सबसेट मौजूदा मॉडल को डाउनलोड करता है कोऑर्डिनेट करने वाले सर्वर से कनेक्ट किया जाता है. ये डिवाइस, सेव किए गए उदाहरणों का इस्तेमाल करते हैं मॉडल में सुधार करने के लिए, डिवाइसों पर इसका इस्तेमाल किया जा सकता है. इसके बाद, डिवाइस अपलोड हो जाते हैं कोऑर्डिनेट करने के लिए मॉडल में सुधार (लेकिन ट्रेनिंग के उदाहरण नहीं) सर्वर, जहां उन्हें अन्य अपडेट के साथ एक साथ रखा जाता है, ताकि बेहतर ग्लोबल मॉडल. एग्रीगेशन के बाद, डिवाइसों के हिसाब से मॉडल के अपडेट अब उनकी ज़रूरत नहीं है, और इन्हें खारिज किया जा सकता है.

ट्रेनिंग के उदाहरण कभी अपलोड नहीं किए जाते. इसलिए, फ़ेडरेटेड लर्निंग ध्यान दें कि डेटा इकट्ठा करने और डेटा इकट्ठा करने पर प्रतिबंध लगाने के बारे में निजता के सिद्धांत.

फ़ेडरेटेड लर्निंग के बारे में ज़्यादा जानकारी के लिए, यह ट्यूटोरियल देखें.

फ़ीडबैक लूप

#fundamentals

मशीन लर्निंग में, एक स्थिति जिसमें मॉडल का अनुमान ट्रेनिंग डेटा की ज़रूरत होती है. उदाहरण के लिए, ऐसा मॉडल जो का सुझाव देता है कि फ़िल्में लोगों को दिखाई देने वाली फ़िल्मों पर असर डालेंगी. इससे लोगों को फ़िल्मों के सुझाव वाले बाद के मॉडल पर असर डालती हैं.

प्रोडक्शन एमएल सिस्टम: सवाल पूछें पूछें देखें.

फ़ीडफ़ॉरवर्ड न्यूरल नेटवर्क (FFN)

ऐसा न्यूरल नेटवर्क जिसमें साइक्लिक या बार-बार होने वाले कनेक्शन नहीं होते. उदाहरण के लिए, ट्रेडिशनल डीप न्यूरल नेटवर्क फ़ीडफ़ॉरवर्ड न्यूरल नेटवर्क चुनें. बार-बार होने वाले न्यूरल से अंतर) नेटवर्क, जो साइकल के होते हैं.

कुछ समय के लिए वीडियो बनाना

मशीन लर्निंग का तरीका, जिसका इस्तेमाल अक्सर ऑब्जेक्ट की कैटगरी तय करने के लिए किया जाता है. इसे क्लासिफ़ायर को ट्रेनिंग देने के लिए डिज़ाइन किया गया है. ट्रेनिंग के उदाहरण.

वन-शॉट लर्निंग और ज़ीरो-शॉट लर्निंग.

कुछ शॉट के साथ प्रॉम्प्ट देना

#language
#generativeAI

ऐसा प्रॉम्प्ट जिसमें एक से ज़्यादा ("कुछ") उदाहरण शामिल हों यह दिखाता है कि बड़ा लैंग्वेज मॉडल को जवाब देना चाहिए. उदाहरण के लिए, नीचे दिए गए लंबे प्रॉम्प्ट में दो क्वेरी शामिल हैं ये उदाहरण, क्वेरी का जवाब देने के लिए बड़ा लैंग्वेज मॉडल दिखाते हैं.

एक प्रॉम्प्ट के हिस्से नोट
किसी चुने गए देश की आधिकारिक मुद्रा क्या है? वह सवाल जिसका जवाब एलएलएम से देना है.
फ़्रांस: EUR एक उदाहरण.
यूनाइटेड किंगडम: GBP एक और उदाहरण.
भारत: असल क्वेरी.

आम तौर पर, कुछ शॉट के साथ प्रॉम्प्ट दिखाने पर ज़्यादा काम के नतीजे मिलते हैं. ज़ीरो-शॉट प्रॉम्प्ट और वन-शॉट प्रॉम्प्ट. हालांकि, कुछ ही शॉट में के लिए एक लंबा प्रॉम्प्ट चाहिए.

फ़्यू-शॉट प्रॉम्प्ट को कुछ शॉट से सीखें में इस्तेमाल किया जा सकता है प्रॉम्प्ट पर आधारित लर्निंग पर लागू किया जाता है.

प्रॉम्प्ट देखें इंजीनियरिंग देखें.

वायलिन

#language

Python-फ़र्स्ट कॉन्फ़िगरेशन वाली कॉन्फ़िगरेशन लाइब्रेरी, जो इनवेसिव कोड या इन्फ़्रास्ट्रक्चर के बिना फ़ंक्शन और क्लास की वैल्यू. Pax और अन्य एमएल कोडबेस के मामले में, ये फ़ंक्शन और क्लास में मॉडल और ट्रेनिंग को दिखाया जाता है हाइपर पैरामीटर.

फ़िडल यह मानता है कि आम तौर पर मशीन लर्निंग कोड बेस में बंटे होते हैं:

  • लाइब्रेरी कोड, जो लेयर और ऑप्टिमाइज़र के बारे में बताता है.
  • "glue" डेटासेट कोड, जो लाइब्रेरी को कॉल करता है और सब कुछ एक साथ कनेक्ट करता है.

Fiddle, बिना आकलन किए गए ग्लू कोड के कॉल स्ट्रक्चर को कैप्चर करता है और बदला जा सकता है.

फ़ाइन-ट्यूनिंग

#language
#image
#generativeAI

एक दूसरा, टास्क के हिसाब से ट्रेनिंग पास, जिसे प्री-ट्रेन किए गए मॉडल का इस्तेमाल इस्तेमाल के उदाहरण के हिसाब से. उदाहरण के लिए, कुछ लोगों के लिए ट्रेनिंग का पूरा क्रम बड़े लैंग्वेज मॉडल के बारे में यहां बताया गया है:

  1. प्री-ट्रेनिंग: एक बड़े सामान्य डेटासेट की मदद से, बड़े लैंग्वेज मॉडल को ट्रेनिंग दें, जैसे कि अंग्रेज़ी भाषा के सभी Wikipedia पेज.
  2. फ़ाइन-ट्यूनिंग: पहले से ट्रेन किए गए मॉडल को कोई खास टास्क करने के लिए ट्रेनिंग दें, जैसे, स्वास्थ्य से जुड़ी क्वेरी का जवाब देना. आम तौर पर, फ़ाइन ट्यूनिंग के दौरान किसी खास टास्क पर फ़ोकस करने वाले सैकड़ों या हज़ारों उदाहरण.

दूसरे उदाहरण के तौर पर, किसी बड़े इमेज मॉडल के लिए पूरी ट्रेनिंग का क्रम इस तरह है अनुसरण करता है:

  1. प्री-ट्रेनिंग: बड़ी सामान्य इमेज के आधार पर, बड़े इमेज मॉडल को ट्रेनिंग दें डेटासेट का इस्तेमाल करें, जैसे कि Wikimedia Commons की सभी इमेज.
  2. फ़ाइन-ट्यूनिंग: पहले से ट्रेन किए गए मॉडल को कोई खास टास्क करने के लिए ट्रेनिंग दें, जैसे कि ओर्का की इमेज जनरेट करना.

ऐसेट को बेहतर बनाने के लिए, यहां दी गई रणनीतियों का कोई भी कॉम्बिनेशन इस्तेमाल किया जा सकता है:

  • पहले से ट्रेन किए गए सभी मौजूदा मॉडल में बदलाव करना पैरामीटर. इसे कभी-कभी फ़ुल फ़ाइन ट्यूनिंग भी कहा जाता है.
  • पहले से ट्रेन किए गए मॉडल के सिर्फ़ कुछ पैरामीटर में बदलाव करना (आम तौर पर, आउटपुट लेयर के सबसे करीब की लेयर), जबकि अन्य मौजूदा पैरामीटर में कोई परिवर्तन न करें (आमतौर पर, परतें यह इनपुट लेयर के सबसे नज़दीक होता है. यहां जाएं: पैरामीटर की बेहतर ट्यूनिंग.
  • आमतौर पर लेयर के सबसे नज़दीक वाली मौजूदा लेयर में ज़्यादा लेयर जोड़ना आउटपुट लेयर.

फ़ाइन ट्यूनिंग, ट्रांसफ़र लर्निंग का एक तरीका है. इसलिए, फ़ाइन ट्यूनिंग अलग लॉस फ़ंक्शन या अलग मॉडल का इस्तेमाल कर सकता है का इस्तेमाल करने पर मिलती है. उदाहरण के लिए, आपके पास ये विकल्प हैं ऐसा रिग्रेशन मॉडल बनाने के लिए, पहले से ट्रेनिंग पा चुके बड़े इमेज मॉडल को बेहतर बनाएं इनपुट इमेज में पक्षियों की संख्या दिखाता है.

फ़ाइन-ट्यूनिंग की तुलना, नीचे दिए गए शब्दों से करें:

फ़ाइन-ट्यूनिंग देखें देखें.

फ़्लैक्स

#language

बेहतर परफ़ॉर्मेंस वाला ओपन सोर्स लाइब्रेरी के लिए डीप लर्निंग को JAX पर बनाया गया है. फ़्लैक्स फ़ंक्शन देता है ट्रेनिंग के न्यूरल नेटवर्क के लिए भी उनकी परफ़ॉर्मेंस का आकलन करने के तरीकों के बारे में बताया गया है.

Flaxformer

#language

ओपन सोर्स Transformer लाइब्रेरी, फ़्लेक्स पर बनाया गया, जिसे खास तौर पर नैचुरल लैंग्वेज प्रोसेसिंग के लिए डिज़ाइन किया गया है और मल्टीमोडल रिसर्च शामिल करें.

गेट भूल जाओ

#seq

लंबी अवधि के लिए सेव की जाने वाली मेमोरी का हिस्सा यह सेल, सेल में होने वाली जानकारी के फ़्लो को कंट्रोल करता है. जानकारी को खारिज करने के बाद, अब बाहर जा सकते हैं सेल की स्थिति से.

फ़ुल सॉफ़्टमैक्स

softmax का समानार्थी शब्द.

उम्मीदवार के लिए सैंपलिंग से तुलना करें.

पूरी तरह से कनेक्ट की गई लेयर

एक छिपी हुई लेयर, जिसमें हर नोड होता है अगली छिपी हुई लेयर में हर नोड से कनेक्ट होता है.

पूरी तरह से कनेक्ट की गई लेयर को सघन लेयर भी कहा जाता है.

फ़ंक्शन ट्रांसफ़ॉर्मेशन

ऐसा फ़ंक्शन जो इनपुट के तौर पर फ़ंक्शन को लेता है और उस फ़ंक्शन को नतीजे के तौर पर दिखाता है जिसमें बदलाव किया गया है एक आउटपुट के रूप में. JAX, फ़ंक्शन ट्रांसफ़ॉर्मेशन का इस्तेमाल करता है.

G

GAN

जनरेटिव एडवरसिरियल ऐडवर्टाइज़ल डोमेन का छोटा नाम नेटवर्क का इस्तेमाल कर रहे हैं.

सामान्यीकरण

#fundamentals

किसी नए मॉडल की मदद से, पहले से देखा हुआ डेटा नहीं है. जो मॉडल सामान्य बना सकता है वह इसके उलट होता है जो ओवरफ़िटिंग हो.

Gemini

#language
#image
#generativeAI

इस नेटवर्क में Google का सबसे ऐडवांस एआई उपलब्ध है. इस पारिस्थितिक तंत्र के तत्व शामिल करें:

  • Gemini के अलग-अलग मॉडल.
  • Gemini के मॉडल के लिए इंटरैक्टिव बातचीत वाला इंटरफ़ेस. लोग प्रॉम्प्ट टाइप करते हैं और Gemini उन प्रॉम्प्ट का जवाब देता है.
  • Gemini के अलग-अलग एपीआई.
  • Gemini मॉडल के आधार पर, कारोबार के कई प्रॉडक्ट; उदाहरण के लिए, Gemini for Google Cloud.

Gemini के मॉडल

#language
#image
#generativeAI

Google का आधुनिक Transformer-आधारित मल्टीमॉडल मॉडल. Gemini के मॉडल ख़ास तौर पर इसे एजेंट के साथ इंटिग्रेट करने के लिए डिज़ाइन किया गया है.

लोग Gemini के मॉडल के साथ कई तरह से इंटरैक्ट कर सकते हैं. जैसे, इंटरैक्टिव डायलॉग इंटरफ़ेस और SDK टूल की मदद से बनाया गया है.

सामान्यीकरण कर्व

#fundamentals

ट्रेनिंग में कमी और, दोनों का प्लॉट वैलिडेशन लॉस: दोहरावों.

सामान्यीकरण कर्व की मदद से यह पता लगाया जा सकता है कि ओवरफ़िटिंग (ओवरफ़िटिंग). उदाहरण के लिए, निम्न सामान्यीकरण कर्व, ओवरफ़िटिंग का सुझाव देता है, क्योंकि पुष्टि नहीं हो सकती आखिरकार, ट्रेनिंग में कमी की तुलना में काफ़ी ज़्यादा हो जाती है.

ऐसा कार्टिज़न ग्राफ़ जिसमें y-ऐक्सिस को लॉस और x-ऐक्सिस के तौर पर लेबल किया गया है
          बार-बार दोहराए जाने का लेबल है. दो प्लॉट दिखते हैं. एक प्लॉट में,
          और दूसरे में पुष्टि न हो पाने का पता चलता है.
          दोनों प्लॉट एक ही तरह से शुरू होते हैं, लेकिन ट्रेनिंग खत्म हो जाती है
          पुष्टि करने में हुई गड़बड़ी की तुलना में काफ़ी कम हो जाती है.

सामान्य लीनियर मॉडल

कम से कम स्क्वेयर रिग्रेशन का सामान्यीकरण जो इन पर आधारित होते हैं. गाउसियन नॉइज़, दूसरे से अन्य तरह के शोर के आधार पर मॉडल के बारे में जानकारी. जैसे, पॉइसन नॉइज़ या कैटगरी से जुड़ा शोर. सामान्य लीनियर मॉडल के उदाहरणों में ये शामिल हैं:

सामान्य रैखिक मॉडल के पैरामीटर, कन्वर्ज़न ऑप्टिमाइज़ करने की सुविधा.

सामान्य लीनियर मॉडल में ये प्रॉपर्टी दिखती हैं:

  • इष्टतम कम से कम वर्ग प्रतिगमन मॉडल का औसत अनुमान है ट्रेनिंग डेटा पर औसत लेबल के बराबर हो.
  • इष्टतम लॉजिस्टिक रिग्रेशन के आधार पर अनुमान लगाई गई औसत प्रॉबबिलिटी मॉडल, ट्रेनिंग डेटा पर मौजूद औसत लेबल के बराबर हो.

सामान्य लीनियर मॉडल की क्षमता, इसकी सुविधाओं के हिसाब से सीमित होती है. नापसंद करें डीप मॉडल, सामान्य लीनियर मॉडल "नई सुविधाओं के बारे में नहीं जान सकते".

जनरेटिव ऐडवर्सल नेटवर्क (GAN)

नया डेटा बनाने के लिए सिस्टम, जिसमें जनरेटर बनाता है डेटा इकट्ठा करता है और विविक्त करने वाला पता लगाता है कि बनाया गया डेटा मान्य या अमान्य है.

जनरेटिव एआई

#language
#image
#generativeAI

बदलाव लाने वाला उभरता हुआ फ़ील्ड, जिसकी कोई औपचारिक परिभाषा नहीं है. हालांकि, ज़्यादातर विशेषज्ञ इस बात से सहमत हैं कि जनरेटिव एआई मॉडल बनाने ("जनरेट करने") वाला ऐसा कॉन्टेंट बनाएं जिसमें ये सभी चीज़ें शामिल हों:

  • जटिल
  • आसानी से समझ में आने वाला
  • मूल

उदाहरण के लिए, जनरेटिव एआई मॉडल, एआई की मदद से निबंध या इमेज.

पहले की कुछ टेक्नोलॉजी, जिनमें LSTMs शामिल है और RNN भी ओरिजनल मैसेज जनरेट कर सकते हैं और आसानी से इस्तेमाल किया जा सकता है. कुछ विशेषज्ञ इन पुरानी टेक्नोलॉजी को जनरेटिव एआई, जबकि कुछ अन्य लोगों को लगता है कि सही जनरेटिव एआई के लिए ज़्यादा मुश्किल जितनी पुरानी टेक्नोलॉजी की मदद से आउटपुट मिल सकता है.

अनुमानित ML में अंतर करें.

जनरेटिव मॉडल

व्यावहारिक तौर पर, एक मॉडल जो इनमें से कोई एक काम करता है:

  • ट्रेनिंग डेटासेट से नए उदाहरण बनाता है (जनरेट करता है). उदाहरण के लिए, जनरेटिव मॉडल की मदद से, ट्रेनिंग के बाद कविताएं लिखी जा सकती हैं कविताओं के डेटासेट पर रखी जाएगी. यह जनरेटर जनरेटिव एडवरसिरियल नेटवर्क इस कैटगरी में आता है.
  • नया उदाहरण मिलने की संभावना तय करता है कि या ट्रेनिंग सेट है या उसी तरीके से बनाया गया है जिससे ट्रेनिंग सेट में रखा गया है. उदाहरण के लिए, डेटासेट में अंग्रेज़ी के वाक्य शामिल हैं. जनरेटिव मॉडल इस बात की संभावना तय करें कि नया इनपुट, अंग्रेज़ी का एक मान्य वाक्य है.

जनरेटिव मॉडल, उदाहरणों के डिस्ट्रिब्यूशन को सैद्धांतिक तौर पर देख सकता है या खास सुविधाओं की जानकारी देते हैं. यानी:

p(examples)

अनसुपरवाइज़्ड लर्निंग मॉडल जनरेटिव होते हैं.

भेदभाव वाले मॉडल से कंट्रास्ट अलग करें.

जेनरेटर

जनरेटिव एआई का इस्तेमाल करने वाले जनरेटिव एआई का सबसिस्टम नेटवर्क जो नए उदाहरण बनाता है.

भेदभाव वाले मॉडल से कंट्रास्ट अलग करें.

जिनी इंप्यूरिटी

#df

एंट्रॉपी से मिलती-जुलती मेट्रिक. स्प्लिटर लिखने के लिए जिनी इंप्युरिटी या एन्ट्रॉपी से मिले मान का इस्तेमाल करना कैटगरी तय करने के लिए शर्तें डिसिज़न ट्री. जानकारी पाने का तरीका एंट्रॉपी से लिया जाता है. हासिल की गई मेट्रिक के लिए ऐसा कोई शब्द नहीं है जिसे सभी जगह स्वीकार किया जाता हो जीनी इंपरिटी से; हालांकि, यह बिना नाम वाली मेट्रिक उतनी ही अहम है जितनी ज़रूरी है फ़ायदा मिलता है.

जिनी इंपरिटी को गिनी इंडेक्स या साधारण भाषा में गिनी भी कहा जाता है.

गोल्डन डेटासेट

मैन्युअल तरीके से चुने गए डेटा का सेट, जो ज़मीनी हकीकत को कैप्चर करता है. टीमें किसी मॉडल की क्वालिटी का आकलन करने के लिए, एक या उससे ज़्यादा गोल्डन डेटासेट का इस्तेमाल कर सकती हैं.

कुछ गोल्डन डेटासेट, ज़मीनी हकीकत के अलग-अलग सबडोमेन को कैप्चर करते हैं. उदाहरण के लिए, इमेज क्लासिफ़िकेशन के लिए गोल्डन डेटासेट, रोशनी की स्थितियों को कैप्चर कर सकता है और इमेज रिज़ॉल्यूशन.

GPT (जनरेटिव प्री-ट्रेन्ड ट्रांसफ़ॉर्मर)

#language

Transformer-आधारित परिवार बड़े लैंग्वेज मॉडल, जिन्हें इन्होंने बनाया है OpenAI.

GPT के वैरिएंट कई मॉडलिंग पर लागू किए जा सकते हैं. इनमें ये शामिल हैं:

  • इमेज जनरेट करना (उदाहरण के लिए, ImageGPT)
  • टेक्स्ट को इमेज में बदलने की सुविधा (उदाहरण के लिए, DALL-E).

ग्रेडिएंट

इसके संबंध में पार्शियल डेरिवेटिव का वेक्टर सभी इंडिपेंडेंट वैरिएबल का इस्तेमाल करें. मशीन लर्निंग में, ग्रेडिएंट यह होता है मॉडल फ़ंक्शन के पार्शियल डेरिवेटिव का वेक्टर. ग्रेडिएंट पॉइंट सबसे ज़्यादा चढ़ाई की दिशा में कदम बढ़ाएं.

ग्रेडिएंट अक्यूम्युलेशन

एक बैकप्रोपगेशन तकनीक, जो पैरामीटर हर Epoch के लिए एक बार के बजाय, सिर्फ़ एक बार फिर से करें. हर मिनी-बैच को प्रोसेस करने के बाद, ग्रेडिएंट अक्यूमेशन से बस कुल ग्रेडिएंट की संख्या अपडेट होती है. इसके बाद, Epoch के आखिरी मिनी-बैच को प्रोसेस करने के बाद, सिस्टम अपडेट हो जाता है सभी ग्रेडिएंट बदलावों की कुल संख्या के आधार पर पैरामीटर.

ग्रेडिएंट संग्रह तब उपयोगी होता है, जब बैच का साइज़ यह ट्रेनिंग के लिए उपलब्ध मेमोरी की तुलना में बहुत ज़्यादा है. जब मेमोरी में कोई समस्या होती है, तो अक्सर बैच का साइज़ कम कर दिया जाता है. हालांकि, सामान्य बैक-प्रॉपगेशन में बैच के साइज़ को कम करने से बढ़ोतरी होती है पैरामीटर के अपडेट की संख्या. ग्रेडिएंट अक्यूम्युलेशन, मॉडल को चालू करने में मदद करता है ताकि याददाश्त से जुड़ी समस्याएं न आएं, लेकिन अब भी आपकी ट्रेनिंग बेहतर तरीके से की जा सकती है.

ग्रेडिएंट बूस्टेड (डिसिज़न) ट्री (GBT)

#df

एक तरह का फ़ैसले फ़ॉरेस्ट, जिसमें:

ग्रेडिएंट बूस्टिंग

#df

ट्रेनिंग का एक एल्गोरिदम, जिसमें कमज़ोर मॉडल को बार-बार ट्रेनिंग दी जाती है बेहतर मॉडल की क्वालिटी को बेहतर बनाया जा सकता है (नुकसान को कम किया जा सकता है). उदाहरण के लिए, कमज़ोर मॉडल, लीनियर या छोटा डिसीज़न ट्री मॉडल हो सकता है. मज़बूत मॉडल, पहले ट्रेन किए गए सभी कमज़ोर मॉडल का योग बन जाता है.

ग्रेडिएंट बूस्टिंग के सबसे आसान रूप में, हर बार इटरेशन के दौरान एक कमज़ोर मॉडल को मज़बूत मॉडल के लॉस ग्रेडिएंट का अनुमान लगाने के लिए ट्रेनिंग दी गई है. इसके बाद, मज़बूत मॉडल का आउटपुट, अनुमानित ग्रेडिएंट को घटाकर अपडेट किया जाता है. ग्रेडिएंट डिसेंट जैसा ही होता है.

$$F_{0} = 0$$ $$F_{i+1} = F_i - \xi f_i $$

कहां:

  • $F_{0}$ शुरुआती मज़बूत मॉडल है.
  • $F_{i+1}$ दूसरा मज़बूत मॉडल है.
  • $F_{i}$ फ़िलहाल एक मज़बूत मॉडल है.
  • $\xi$ 0.0 और 1.0 के बीच की कोई वैल्यू होती है, जिसे shrinkage कहा जाता है, जो लर्निंग रेट में ग्रेडिएंट ढलान.
  • $f_{i}$ एक कमज़ोर मॉडल है, जिसे इसके लॉस ग्रेडिएंट का अनुमान लगाने के लिए ट्रेन किया गया है $F_{i}$.

ग्रेडिएंट बूस्टिंग के नए वैरिएशन में सेकंड डेरिवेटिव भी शामिल है (हेसियन).

डिसिज़न ट्री का इस्तेमाल आम तौर पर, कमजोर मॉडल के तौर पर किया जाता है ग्रेडिएंट बूस्टिंग. यहां जाएं: ग्रेडिएंट बूस्टेड (डिसिज़न) ट्री.

ग्रेडिएंट क्लिपिंग

#seq

आम तौर पर, इस्तेमाल किया जाने वाला तरीका आर्टिफ़िशियल तरीके से ग्रेडिएंट की समस्या को विस्फोट करना का उपयोग करते समय ग्रेडिएंट के अधिकतम मान को सीमित (क्लिपिंग) करना किसी मॉडल को ट्रेन करने के लिए, ग्रेडिएंट ढलान का इस्तेमाल करें.

ग्रेडिएंट डिसेंट

#fundamentals

लॉस को कम करने के लिए, गणित की तकनीक. ग्रेडिएंट ढलान, पुनरावृत्तीय रूप से समायोजित होता है वज़न और पक्षपात, नुकसान को कम करने के लिए, धीरे-धीरे सबसे अच्छे कॉम्बिनेशन को खोजा जा सकेगा.

ग्रेडिएंट ढलान पुराना है—जो मशीन लर्निंग की तुलना में बहुत पुराना है.

ग्राफ़

#TensorFlow

TensorFlow में, एक कंप्यूटेशन स्पेसिफ़िकेशन है. ग्राफ़ में नोड कार्रवाइयों को दिखाता है. किनारों को निर्देशित किया जाता है और परिणाम पास करने का प्रतिनिधित्व किया जाता है (Tensor) को ऑपरेंड को किसी दूसरी कार्रवाई में बदला जाता है. इस्तेमाल की जाने वाली चीज़ें किसी ग्राफ़ को विज़ुअलाइज़ करने के लिए, TensorBoard.

ग्राफ़ एक्ज़ीक्यूशन

#TensorFlow

TensorFlow का ऐसा प्रोग्रामिंग एनवायरमेंट जिसमें प्रोग्राम सबसे पहले कॉन्टेंट बनाता है एक ग्राफ़ और फिर उस ग्राफ़ का पूरा या कुछ हिस्सा एक्ज़ीक्यूट करता है. ग्राफ़ TensorFlow 1.x में एक्ज़ीक्यूशन, डिफ़ॉल्ट एक्ज़ीक्यूशन मोड है.

eager का इस्तेमाल करने की सुविधा अलग-अलग हो.

लालची नीति

#rl

रीइन्फ़ोर्समेंट लर्निंग में, एक ऐसी नीति जो हमेशा ऐसी कार्रवाई जिसकी रिटर्न की उम्मीद सबसे ज़्यादा हो.

ज़मीनी हकीकत

#fundamentals

हकीकत.

यह असल में हुआ था.

उदाहरण के लिए, बाइनरी क्लासिफ़िकेशन का इस्तेमाल करें मॉडल, जो यह अनुमान लगाता है कि छात्र-छात्राओं ने यूनिवर्सिटी में पढ़ाई के अपने पहले साल में क्या किया पास छह साल में पास हो जाएगा. इस मॉडल के लिए ज़मीनी हकीकत यह है कि या नहीं है कि उस छात्र ने वास्तव में छह साल के भीतर ग्रेजुएशन किया.

ग्रुप एट्रिब्यूशन बायस

#fairness

यह मानते हुए कि किसी व्यक्ति के लिए जो सही है वह सभी के लिए भी सही है उस ग्रुप में शामिल करें. ग्रुप एट्रिब्यूशन बायस के असर को बढ़ाया जा सकता है अगर सुविधा सैंपलिंग का इस्तेमाल डेटा इकट्ठा करने के लिए किया जाता है. गैर-प्रतिनिधित्व वाले नमूने में, एट्रिब्यूशन जो हकीकत नहीं दिखाते.

ग्रुप से बाहर के लोगों के लिए एक ही तरीके से होने वाले भेदभाव की जानकारी भी देखें और इन-ग्रुप बायस.

H

गलत जानकारी

#language

अनुमान के हिसाब से दिखने वाले, लेकिन तथ्यों के हिसाब से गलत आउटपुट का इस्तेमाल जनरेटिव एआई मॉडल का इस्तेमाल असल दुनिया पर किए गए दावे. उदाहरण के लिए, ऐसा जनरेटिव एआई मॉडल जिसमें दावा किया गया हो कि बराक ओबामा की 1865 में मौत हुई थी गलत जानकारी देता है.

हैशिंग

मशीन लर्निंग में, बकेटिंग के लिए एक तरीका कैटगरिकल डेटा का इस्तेमाल करते हैं, खास तौर पर तब, जब कैटगरी बड़ी है, लेकिन असल में दिखने वाली कैटगरी की संख्या वहीं, डेटासेट की तुलना में छोटा है.

उदाहरण के लिए, पृथ्वी पर पेड़ों की करीब 73,000 प्रजातियां हैं. आप पेड़ों की 73,000 प्रजातियों में से हर एक को 73,000 अलग-अलग कैटगरी में बांटते हैं बकेट. अगर वाकई में पेड़ों की सिर्फ़ 200 प्रजातियां दिखाई जाती हैं, तो तो हैशिंग का इस्तेमाल करके, करीब 500 बकेट.

एक बकेट में पेड़ों की कई प्रजातियां हो सकती हैं. उदाहरण के लिए, हैशिंग बाओबैब और रेड मेपल को डाला जा सकता है—आनुवंशिक रूप से असमानता कई नस्लों के लिए—एक ही बकेट में. इसके बावजूद, हैशिंग अब भी बड़ी कैटगरी के सेट को बकेट की चुनी गई संख्या में मैप करना. हैशिंग कैटगरी वाली सुविधा में, कई संभावित वैल्यू को मिलाकर वैल्यू को ग्रुप में रखकर, वैल्यू की कम संख्या को तय करने वाला तरीका है.

अनुभव

किसी समस्या का आसान और तुरंत लागू किया गया समाधान. उदाहरण के लिए, "हमने एक अनुमान के आधार पर 86% सटीक अनुमान लगाया है. जब हमने एक डीप न्यूरल नेटवर्क, 98% तक सटीक हो गया है."

छिपी हुई लेयर

#fundamentals

न्यूरल नेटवर्क में एक लेयर, जो इनपुट लेयर (सुविधाएं) और आउटपुट लेयर (अनुमान). हर छिपी हुई लेयर में एक या एक से ज़्यादा न्यूरॉन होते हैं. उदाहरण के लिए, नीचे दिए गए न्यूरल नेटवर्क में दो छिपी हुई लेयर हैं, पहला तीन न्यूरॉन और दूसरे में दो न्यूरॉन है:

चार लेयर. पहली लेयर एक इनपुट लेयर है, जिसमें दो
          सुविधाएँ. दूसरी लेयर एक छिपी हुई लेयर है, जिसमें तीन लेयर हैं
          न्यूरॉन. तीसरी लेयर एक छिपी हुई लेयर है, जिसमें दो लेयर होती हैं
          न्यूरॉन. चौथी लेयर एक आउटपुट लेयर है. हर सुविधा
          इसमें तीन किनारे होते हैं, जिनमें से हर एक अलग न्यूरॉन की ओर इशारा करता है
          दूसरे लेयर में. दूसरी लेयर में मौजूद हर न्यूरॉन
          इसमें दो किनारे होते हैं, जिनमें से हर एक अलग न्यूरॉन की ओर इशारा करता है
          तीसरे लेयर में. तीसरी लेयर के हर न्यूरॉन में
          एक किनारे होगा, जिसमें से हर एक किनारे आउटपुट लेयर की ओर इशारा करता हो.

डीप न्यूरल नेटवर्क में एक से ज़्यादा, छिपी हुई लेयर. उदाहरण के लिए, ऊपर दिया गया इलस्ट्रेशन डीप न्यूरल है नेटवर्क सेट करता है, क्योंकि मॉडल में दो छिपी हुई लेयर होती हैं.

हैरारकी के हिसाब से क्लस्टरिंग

#clustering

क्लस्टरिंग एल्गोरिदम की कैटगरी, जो ट्री बनाती है क्लस्टर का हिस्सा हैं. हैरारकीकल क्लस्टरिंग, हैरारकी वाले डेटा के हिसाब से पूरी तरह कारगर है. जैसे कि बोटैनिकल टेक्सॉनमी. क्रम के हिसाब से ये दो तरह के होते हैं क्लस्टरिंग एल्गोरिदम:

  • एगलोमेरेटिव क्लस्टरिंग, सबसे पहले हर उदाहरण को अपने क्लस्टर को असाइन करता है, और हैरारकल बनाने के लिए, नज़दीकी क्लस्टर को बार-बार मर्ज करता है पेड़
  • डिविज़िव क्लस्टरिंग, पहले सभी उदाहरणों को एक क्लस्टर में बांटती है और उसके बाद यह क्लस्टर को फिर से क्रम में लगने वाले ट्री में बांटता है.

सेंट्रोइड-आधारित क्लस्टरिंग से कंट्रास्ट अलग है.

हिंज लॉस

लॉस फ़ंक्शन के फ़ैमिली ग्रुप क्लासिफ़िकेशन को फ़ैसले की सीमा जितना हो सके उतना दूर ट्रेनिंग के हर उदाहरण से लिया गया डेटा देखें, इस तरह, उदाहरणों और सीमा के बीच के मार्जिन को बढ़ाया जा सकता है. KSVM, हिंज लॉस (या इससे जुड़े फ़ंक्शन, जैसे कि वर्गाकार हिंज लॉस). बाइनरी क्लासिफ़िकेशन के लिए, हिंज लॉस फ़ंक्शन को इस तरह परिभाषित किया गया है:

$$\text{loss} = \text{max}(0, 1 - (y * y'))$$

जहां y सही लेबल है, या तो -1 या +1 है और y' रॉ आउटपुट है क्लासिफ़ायर मॉडल का हिस्सा है:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

इस वजह से, कब्ज़ लॉस बनाम (y * y') का प्लॉट इस तरह दिखता है:

एक कार्टीज़न प्लॉट, जिसमें जुड़े हुए दो लाइन सेगमेंट होते हैं. पहला
          रेखा सेगमेंट (-3, 4) से शुरू होता है और (1, 0) पर खत्म होता है. दूसरी लाइन
          सेगमेंट (1, 0) से शुरू होता है और स्लोप के साथ हमेशा के लिए जारी रहता है
          0 होना चाहिए.

ऐतिहासिक भेदभाव

#fairness

एक तरह का पूर्वाग्रह जो दुनिया में पहले से मौजूद है और डेटासेट में बदल गया है. ये पूर्वाग्रह मुख्य रूप से मौजूदा सांस्कृतिक रूढ़िवादी सोच, उम्र, लिंग, आय, शिक्षा वगैरह के असमानता, और किसी खास तरह के लोगों के ख़िलाफ़ पक्षपात सामाजिक समूह.

उदाहरण के लिए, किसी क्लासिफ़िकेशन मॉडल पर विचार करें यह अनुमान लगाता है कि क़र्ज़ लेने वाला, डिफ़ॉल्ट रूप से अपना क़र्ज़ चुकाएंगे या नहीं, जो कि ट्रेनिंग के दौरान, 1980 के दशक के स्थानीय बैंकों से मिले क़र्ज़ के डिफ़ॉल्ट डेटा के आधार पर, दो देशों में ट्रेनिंग दी गई अलग-अलग समुदाय. अगर समुदाय A के पिछले आवेदक छह गुना ज़्यादा थे समुदाय B के आवेदकों की तुलना में, डिफ़ॉल्ट रूप से ऐतिहासिक पूर्वाग्रह को सीख सकता है, जिससे मॉडल की ओर से कम्यूनिटी A में क़र्ज़ की मंज़ूरी दे सकते हैं. भले ही, तब कम्यूनिटी के लिए बनाए गए ज़्यादा डिफ़ॉल्ट किराये अब काम के नहीं थे.

होल्डआउट डेटा

उदाहरण उन्हें ट्रेनिंग के दौरान जान-बूझकर इस्तेमाल न किया गया हो ("होल्ड किया गया"). पुष्टि करने के लिए इस्तेमाल होने वाला डेटासेट और टेस्ट डेटासेट, होल्डआउट डेटा के उदाहरण हैं. होल्डआउट डेटा के अलावा, डेटा के लिए सामान्य बनाने की आपके मॉडल की क्षमता का आकलन करने में मदद करता है जिस डेटा का इस्तेमाल करके उसे ट्रेनिंग दी गई थी. होल्डआउट सेट में होने वाले नुकसान से बेहतर है डेटा की तुलना में, अनदेखे डेटासेट पर होने वाले नुकसान का अनुमान ट्रेनिंग सेट

होस्ट

#TensorFlow
#GoogleCloud

एमएल मॉडल को ऐक्सेलरेटर चिप पर ट्रेनिंग देते समय (जीपीयू या TPU), सिस्टम का हिस्सा हैं जो नीचे दी गई दोनों चीज़ें नियंत्रित करती है:

  • कोड का पूरा फ़्लो.
  • इनपुट पाइपलाइन का एक्सट्रैक्शन और ट्रांसफ़ॉर्मेशन.

आम तौर पर, होस्ट सीपीयू पर चलता है, न कि ऐक्सेलरेटर चिप पर; यह device, डिवाइस पर टेंसर में हेर-फेर करता है ऐक्सेलरेटर चिप.

हाइपर पैरामीटर

#fundamentals

ऐसे वैरिएबल जिन्हें आपने या हाइपर पैरामीटर ट्यूनिंग सेवा के लिए इस्तेमाल किया है मॉडल को ट्रेनिंग देने के दौरान लगातार बदलाव करते रहें. उदाहरण के लिए, लर्निंग रेट हाइपर पैरामीटर है. आप एक ट्रेनिंग सेशन से पहले, लर्निंग रेट को 0.01 पर सेट करना होगा. अगर आपको यह तय किया जा सकता है कि 0.01 बहुत ज़्यादा है, तो ऐसे में अगले ट्रेनिंग सेशन के लिए रेट 0.003 हो जाएगा.

वहीं दूसरी ओर, पैरामीटर वज़न और पूर्वाग्रह जो मॉडल ट्रेनिंग के दौरान सीखता है.

हाइपरप्लेन

वह सीमा जो किसी स्पेस को दो सबस्पेस में अलग करती है. उदाहरण के लिए, लाइन दो डाइमेंशन में हाइपरप्लेन और प्लेन तीन डाइमेंशन में हाइपरप्लेन होता है. आम तौर पर, मशीन लर्निंग में हाइपरप्लेन, वह सीमा होती है जो बाकी अंतरिक्ष को देखा जा सकता है. Kernel सपोर्ट वेक्टर मशीन का इस्तेमाल हाइपरप्लेन का इस्तेमाल, पॉज़िटिव क्लास को नेगेटिव क्लास से अलग करने के लिए किया जाता है. अक्सर अंतरिक्ष को देखा जा सकता है.

I

i.i.d.

स्वतंत्र रूप से और एक जैसे वितरित के लिए संक्षिप्त नाम.

इमेज पहचानने की सुविधा

#image

ऐसी प्रोसेस जो किसी इमेज में ऑब्जेक्ट, पैटर्न या कॉन्सेप्ट की कैटगरी तय करती है. इमेज की पहचान करने की सुविधा को इमेज क्लासिफ़िकेशन भी कहा जाता है.

ज़्यादा जानकारी के लिए, यह देखें ML Practicum: इमेज क्लासिफ़िकेशन.

असंतुलित डेटासेट

क्लास-असंतुलित डेटासेट के लिए समानार्थी.

अनजाने में भेदभाव करना

#fairness

किसी व्यक्ति के दिमाग के आधार पर, अपने-आप संबंध बनाने या अनुमान लगाने की सुविधा मॉडल और यादें हैं. अनजाने में होने वाले भेदभाव से इन चीज़ों पर असर पड़ सकता है:

  • डेटा को इकट्ठा करने और उसे कैटगरी में बांटने का तरीका.
  • मशीन लर्निंग सिस्टम को कैसे डिज़ाइन और डेवलप किया जाता है.

उदाहरण के लिए, शादी की फ़ोटो की पहचान करने के लिए, डेटा की कैटगरी तय करने वाला एल्गोरिदम बनाते समय, कोई इंजीनियर फ़ोटो में मौजूद सफ़ेद ड्रेस को सुविधा के तौर पर इस्तेमाल कर सकता है. हालांकि, सफ़ेद रंग के कपड़े सिर्फ़ कुछ समय से ही लोकप्रिय हैं और कुछ संस्कृतियों में.

पुष्टि से जुड़े मापदंड भी देखें.

इंप्यूटेशन

वैल्यू इंप्यूटेशन का छोटा फ़ॉर्मैट.

निष्पक्षता मेट्रिक के साथ काम नहीं करता

#fairness

यह विचार कि निष्पक्षता की कुछ धारणाएं पारस्परिक रूप से असंगत हैं और एक साथ संतुष्ट नहीं किया जा सकता. इस वजह से, निष्पक्षता का आकलन करने के लिए यूनिवर्सल मेट्रिक जिसे एमएल के सभी सवालों पर लागू किया जा सकता है.

ऐसा हो सकता है कि यह सही न हो, लेकिन निष्पक्षता वाले मेट्रिक का सही तरीके से इस्तेमाल न किया जा रहा हो यह नहीं बताता कि निष्पक्षता की कोशिशें बेअसर हैं. इसके बजाय, यह सुझाव देता है कि एमएल (मशीन लर्निंग) की किसी समस्या के लिए निष्पक्षता को कॉन्टेक्स्ट के हिसाब से परिभाषित किया जाना चाहिए, खास तौर पर, इसके इस्तेमाल के मामलों में होने वाले नुकसान को रोकने का लक्ष्य.

देखें "इस पर (im)निष्पक्षता की संभावना" का इस्तेमाल करें.

इन-कॉन्टेक्स्ट लर्निंग

#language
#generativeAI

कुछ शॉट प्रॉम्प्ट के लिए समानार्थी शब्द.

अलग-अलग और एक समान रूप से डिस्ट्रिब्यूट किए गए (i.i.d)

#fundamentals

ऐसे डिस्ट्रिब्यूशन से तैयार किया गया डेटा जिसमें बदलाव नहीं होता है. साथ ही, जिसमें हर वैल्यू ड्रॉर, पहले बनाई गई वैल्यू पर निर्भर नहीं करता है. कोई आई॰आई॰डी॰ आदर्श गैस है मशीन का सीखना—एक उपयोगी गणितीय निर्माण, जो शायद सटीक रूप से कभी नहीं मिला अनुभव करते हैं. उदाहरण के लिए, किसी वेब पेज पर विज़िटर का वितरण ये आई.आई.डी. हो सकते है का समय पूरा हो जाता है. इसका मतलब है कि डिस्ट्रिब्यूशन उस संक्षिप्त विंडो के दौरान बदलाव हो जाता है और आम तौर पर एक व्यक्ति का आना-जाना होता है स्वतंत्र रूप से काम करते हैं. हालांकि, अगर आप समय की वह विंडो बढ़ाते हैं, इसलिए, वेब पेज पर आने वाले लोगों में सीज़न के मुताबिक अंतर दिख सकता है.

नॉनस्टेशनरिटी भी देखें.

व्यक्तिगत निष्पक्षता

#fairness

निष्पक्षता वाली एक मेट्रिक, जो यह जांच करती है कि मिलते-जुलते लोगों को कैटगरी में शामिल किया गया है या नहीं इसी तरह. उदाहरण के लिए, हो सकता है कि Brobdingnagian Academy को एक समान ग्रेड वाले दो छात्र-छात्राओं को लागू करके, व्यक्तिगत तौर पर निष्पक्षता का अनुरोध करना और स्टैंडर्ड टेस्ट के स्कोर के लिए, एडमिशन लेने की संभावना बराबर होती है.

ध्यान दें कि व्यक्तिगत निष्पक्षता पूरी तरह से इस बात पर निर्भर करती है कि आपने "समानता" को कैसे परिभाषित किया है (इस मामले में, ग्रेड और टेस्ट के स्कोर) का इस्तेमाल किया जाता है, तो आपको अगर समानता दिखाने वाली मेट्रिक, ज़रूरी ऑडियंस तक नहीं पहुंच पाती है, तो इसे फ़ेयरनेस से जुड़ी नई समस्याओं के लिए पेश करना जानकारी (जैसे कि छात्र/छात्रा के पाठ्यक्रम का सख्ती से ध्यान रखना).

"फ़ेयरनेस थ्रू" देखें जागरूकता" का इस्तेमाल करें.

अनुमान

#fundamentals

मशीन लर्निंग में, उसके हिसाब से अनुमान लगाने की बिना लेबल वाले उदाहरणों पर, ट्रेन किए गए मॉडल को लागू करना.

आंकड़ों में अनुमान का कुछ अलग मतलब होता है. ज़्यादा जानकारी के लिए, ज़्यादा जानकारी के लिए, आंकड़ों के अनुमान पर Wikipedia का लेख.

अनुमान का पाथ

#df

डिसिज़न ट्री में, अनुमान के दौरान, विशेष उदाहरण द्वारा लिया गया रास्ता अन्य शर्तों को रूट से खत्म करें एक लीफ़. उदाहरण के लिए, नीचे दिए डिसिज़न ट्री में, मोटे ऐरो अनुमान का पाथ दिखाते हैं. उदाहरण के लिए, यहां देखें सुविधा के मान:

  • x = 7
  • y = 12
  • z = -3

नीचे दिए गए उदाहरण में अनुमान का पाथ तीन से होकर गुज़रता है लीफ़ (Zeta) तक पहुंचने से पहले की शर्तें.

डिसिज़न ट्री जिसमें चार शर्तें और पांच पत्तियां होती हैं.
          रूट की स्थिति (x > 0) है. क्योंकि इसका जवाब हां है, इसलिए
          अनुमान पाथ, रूट से अगली स्थिति (y > 0) तक जाता है.
          जवाब हां है, इसलिए अनुमान का पाथ
          अगली शर्त (z > 0). जवाब नहीं है, इसलिए अनुमान का पाथ
          अपने टर्मिनल नोड पर जाता है, जो कि लीफ़ (ज़ीटा) होता है.

तीन मोटे ऐरो अनुमान का पाथ दिखाते हैं.

Google News Initiative

#df

फ़ैसले फ़ॉरेस्ट में, नोड की एंट्रॉपी और वेटेड (उदाहरणों की संख्या के हिसाब से) इसके चाइल्ड नोड की एंट्रॉपी का योग. नोड की एन्ट्रॉपी, एन्ट्रॉपी होती है शामिल नहीं होंगी.

उदाहरण के लिए, इन एंट्रॉपी वैल्यू पर विचार करें:

  • पैरंट नोड की एन्ट्रॉपी = 0.6
  • 16 काम के उदाहरणों वाले एक चाइल्ड नोड की एन्ट्रॉपी = 0.2
  • 24 काम के उदाहरणों = 0.1 वाले किसी अन्य चाइल्ड नोड की एंट्रॉपी

इसलिए, 40% उदाहरण एक चाइल्ड नोड में और 60% अन्य चाइल्ड नोड पर लागू होते हैं. इसलिए:

  • चाइल्ड नोड का वेटेड एंट्रॉपी योग = (0.4 * 0.2) + (0.6 * 0.1) = 0.14

इस तरह, मुझे यह जानकारी मिलती है:

  • जानकारी गेन = पैरंट नोड की एंट्रॉपी - चाइल्ड नोड के वेटेड एंट्रॉपी का योग
  • हासिल की गई जानकारी = 0.6 - 0.14 = 0.46

ज़्यादातर स्प्लिटर शर्तें बनाना चाहते हैं ज़्यादा से ज़्यादा फ़ायदा मिल सके.

इन-ग्रुप बायस

#fairness

किसी व्यक्ति के ग्रुप या अपनी विशेषताओं में पक्षपात दिखाना. अगर टेस्टर या रेटिंग देने वाले लोगों में मशीन लर्निंग डेवलपर के दोस्त शामिल हैं, तो अगर एक ही ग्रुप में होने वाले भेदभाव से, प्रॉडक्ट की टेस्टिंग को अमान्य किया जा सकता है, तो या डेटासेट हो सकता है.

इन-ग्रुप बायस एक तरह का ग्रुप एट्रिब्यूशन बायस. ग्रुप से बाहर के लोगों के लिए एक ही तरीके से होने वाले भेदभाव की जानकारी भी देखें.

इनपुट जनरेटर

एक ऐसी तकनीक जिससे डेटा को लोड किया जाता है एक न्यूरल नेटवर्क.

इनपुट जनरेटर को एक ऐसा कॉम्पोनेंट माना जाता है जो प्रोसेसिंग के लिए ज़िम्मेदार होता है रॉ डेटा को टेंसर में बदल दिया जाता है, जिसकी वजह से बैच जनरेट करने के लिए दोहराया जाता है ट्रेनिंग, आकलन, और अनुमान.

इनपुट लेयर

#fundamentals

उस न्यूरल नेटवर्क की लेयर जो फ़ीचर वेक्टर को दबाकर रखा जाता है. इसका मतलब है कि इनपुट लेयर ट्रेनिंग के लिए उदाहरण देता है या अनुमान. उदाहरण के लिए, यहां दी गई इनपुट लेयर में न्यूरल नेटवर्क में दो सुविधाएं होती हैं:

चार लेयर: एक इनपुट लेयर, दो छिपी हुई लेयर, और एक आउटपुट लेयर.

इन-सेट स्थिति

#df

डिसिज़न ट्री में, एक स्थिति जो आइटम के सेट में एक आइटम की मौजूदगी की जांच करता है. उदाहरण के लिए, यहां दी गई शर्त इन-सेट में है:

  house-style in [tudor, colonial, cape]

अनुमान के दौरान, अगर घर के स्टाइल वाली सुविधा की वैल्यू tudor या colonial या cape है, तो इस शर्त की वैल्यू 'हां' होगी. अगर आपने हाउस-स्टाइल सुविधा की वैल्यू कुछ और है (उदाहरण के लिए, ranch), तो इस शर्त की वैल्यू 'नहीं' होती है.

इन-सेट स्थितियों की वजह से, आम तौर पर फ़ैसले ट्री की तुलना में ज़्यादा बेहतर डिसिज़न ट्री मिलता है इन स्थितियों में, वन-हॉट कोड में बदली गई सुविधाओं की जांच की जाती है.

इंस्टेंस

example के लिए समानार्थी शब्द.

निर्देश ट्यूनिंग

#generativeAI

फ़ाइन-ट्यूनिंग का एक तरीका, जो जनरेटिव एआई मॉडल की, फ़ॉलो करने की क्षमता निर्देश. इंस्ट्रक्शनल ट्यूनिंग में, मॉडल को किसी सीरीज़ की ट्रेनिंग देनी होती है जिसमें आम तौर पर चौड़ी या चौड़ी करने में मदद मिलती है. इसके बाद, निर्देश के मुताबिक तैयार किया गया मॉडल, ज़ीरो-शॉट प्रॉम्प्ट पर काम के जवाब जनरेट करना मैनेज किया जा सकता है.

इनकी तुलना और इनके साथ अंतर करना:

इंटरप्रेटेडेबिलिटी

#fundamentals

एमएल मॉडल की रीज़निंग के बारे में जानकारी देने या उसे प्रज़ेंट करने की क्षमता समझने में आसान शब्दों का इस्तेमाल किया है.

उदाहरण के लिए, ज़्यादातर लीनियर रिग्रेशन मॉडल अनुवाद किया जा सकता है. (आपको हर एक के लिए ट्रेन किए गए वज़न को देखने की ज़रूरत है feature.) डिसिज़न फ़ॉरेस्ट भी आसानी से समझे जा सकते हैं. हालांकि, कुछ मॉडल, उसे समझने लायक बनाने के लिए, मुश्किल विज़ुअलाइज़ेशन का होना ज़रूरी है.

Google आपके यूआरएल पैरामीटर को कैसे इस्तेमाल करेगा, यह तय करने के लिए लर्निंग इंटरप्रिटेबिलिटी टूल (एलआईटी) एमएल मॉडल को समझने के लिए.

इंटर-रेटर एग्रीमेंट

इससे पता चलता है कि कोई टास्क करते समय, रेटिंग देने वाले लोग कितनी बार सहमत होते हैं. अगर रेटिंग देने वाले लोग सहमत नहीं हैं, तो टास्क के निर्देशों को बेहतर बनाने की ज़रूरत हो सकती है. इसे कभी-कभी इंटर-एनोटेटर कानूनी समझौता भी कहा जाता है या इंटर-रेटर विश्वसनीयता. इन्हें भी देखें कोहेन्स कप्पा, यह इंटर-रेटर एग्रीमेंट का सबसे लोकप्रिय मेज़रमेंट है.

इंटरसेक्शन ओवर यूनियन (आईओयू)

#image

दो सेट के प्रतिच्छेदन को उनके यूनियन से भाग देने पर मिलने वाली संख्या. मशीन लर्निंग में इमेज की पहचान करने वाले टास्क हैं. IoU का इस्तेमाल यह पता लगाने के लिए किया जाता है कि मॉडल बाउंडिंग बॉक्स का अनुमान ग्राउंड-ट्रूथ बाउंडिंग बॉक्स. इस मामले में, दो बॉक्स, ओवरलैप हो रहे क्षेत्र और कुल क्षेत्र के बीच का अनुपात है, और इसकी वैल्यू 0 से है (अनुमानित बाउंडिंग बॉक्स और ग्राउंड-ट्रूथ का कोई ओवरलैप नहीं बाउंडिंग बॉक्स) से 1 (अनुमानित बाउंडिंग बॉक्स और ग्राउंड-ट्रुथ बाउंडिंग बॉक्स में है एक जैसे निर्देशांक).

उदाहरण के लिए, नीचे दी गई इमेज में:

  • अनुमानित बाउंडिंग बॉक्स (निर्देशांक, जो इस बात की सीमा तय करते हैं कि मॉडल अनुमान लगाता है कि पेंटिंग में नाइट टेबल मौजूद है) बैंगनी रंग में आउटलाइन की गई है.
  • ग्राउंड-ट्रुथ बाउंडिंग बॉक्स (निर्देशांक जो रात की जगह को तय करते हैं) टेबल असल में मौजूद है) हरे रंग से आउटलाइन की गई है.

द वैन गॉ, आर्ल में विंसेंट के बेडरूम की पेंटिंग बनाते हैं, जिसमें दो अलग-अलग चीज़ें हैं
          बिस्तर के बगल में नाइट टेबल के चारों तरफ़ बाउंड्री से बने बॉक्स. ज़मीनी हकीकत
          बाउंडिंग बॉक्स (हरे रंग में) रात में टेबल के चारों ओर घूमता है. कॉन्टेंट बनाने
          अनुमानित बाउंडिंग बॉक्स (बैंगनी रंग में) 50% नीचे और दाईं ओर ऑफ़सेट है
          ग्राउंड-ट्रूथ बाउंडिंग बॉक्स की; इसमें सबसे नीचे दाईं ओर मौजूद तिमाही को शामिल किया जाता है
          रात की टेबल में शामिल नहीं है, लेकिन उसमें बाकी टेबल शामिल नहीं है.

यहां, अनुमान लगाने और ज़मीनी हकीकत दिखाने के लिए बाउंडिंग बॉक्स को इंटरसेक्शन में दिखाया गया है (नीचे बाईं ओर) 1 है और अनुमान और ज़मीनी सच्चाई (नीचे दाईं ओर) 7 है, इसलिए IoU \(\frac{1}{7}\)है.

ऊपर दी गई इमेज जैसी ही है, लेकिन हर बाउंडिंग बॉक्स को चार में
          क्वाड्रेंट. कुल सात क्वाड्रेंट हैं, सबसे नीचे दाईं ओर
          ग्राउंड-ट्रूथ बाउंडिंग बॉक्स का क्वाड्रेंट और सबसे ऊपर बाईं ओर
          अनुमानित बाउंडिंग बॉक्स का क्वाड्रेंट एक-दूसरे से ओवरलैप करता है. यह
          ओवरलैप करने वाला सेक्शन (हरे रंग से हाइलाइट किया गया)
          प्रतिच्छेदन है और इसका क्षेत्र 1 है. ऊपर दी गई इमेज जैसी ही है, लेकिन हर बाउंडिंग बॉक्स को चार में
          क्वाड्रेंट. कुल सात क्वाड्रेंट हैं, सबसे नीचे दाईं ओर
          ग्राउंड-ट्रूथ बाउंडिंग बॉक्स का क्वाड्रेंट और सबसे ऊपर बाईं ओर
          अनुमानित बाउंडिंग बॉक्स का क्वाड्रेंट एक-दूसरे से ओवरलैप करता है.
          अंदर का पूरा हिस्सा, जो दोनों बाउंडिंग बॉक्स से घिरा हुआ है
          (हरे रंग से हाइलाइट किया गया है) यूनियन को दिखाता है और
          7 का क्षेत्र.

IoU

इंटरसेक्शन ओवर यूनियन का शॉर्ट फ़ॉर्म.

आइटम का मैट्रिक्स

#recsystems

सुझाव देने वाले सिस्टम में, एम्बेडिंग वेक्टर का मैट्रिक्स जो जनरेट किया गया हो मैट्रिक्स फ़ैक्टराइज़ेशन जो हर आइटम के बारे में लेटेंट सिग्नल देता है. आइटम मैट्रिक्स की हर पंक्ति में एक लेटेंट का मान होता है सुविधा का इस्तेमाल करें. उदाहरण के लिए, फ़िल्म का सुझाव देने वाले किसी सिस्टम का इस्तेमाल करें. हर कॉलम आइटम मैट्रिक्स में एक मूवी दिखती है. द लेटेंट सिग्नल वे शैलियों के बारे में बताती हों या उन्हें समझना मुश्किल हो ऐसे सिग्नल जिनमें शैली, सितारों, फ़िल्म की उम्र या अन्य कारक.

आइटम मैट्रिक्स में कॉलम की संख्या, टारगेट की संख्या के बराबर है ऐसा मैट्रिक्स जिसे फ़ैक्टराइज़ किया जा रहा है. उदाहरण के लिए, किसी फ़िल्म में सुझाव देने वाला सिस्टम है,जो 10, 000 फ़िल्मों के टाइटल का आकलन करता है. आइटम मैट्रिक्स में 10,000 कॉलम होंगे.

आइटम

#recsystems

सुझाव देने वाले सिस्टम में, वे इकाइयां जो किसी सिस्टम का सुझाव है. उदाहरण के लिए, वीडियो ऐसे आइटम होते हैं जिन्हें कोई वीडियो सेव करता है की सलाह देता है, जबकि किताबें वे आइटम हैं जिनका सुझाव किसी बुकस्टोर ने दिया है.

फिर से करें

#fundamentals

किसी मॉडल के पैरामीटर का एक अपडेट—मॉडल के भार और पक्षपात—इस अवधि के दौरान ट्रेनिंग. बैच के साइज़ से तय होता है कि एक बार में यह मॉडल प्रोसेस होने के कितने उदाहरण देता है. उदाहरण के लिए, अगर बैच का साइज़ 20 है, तो मॉडल पहले 20 उदाहरणों को प्रोसेस करता है पैरामीटर अडजस्ट करना.

न्यूरल नेटवर्क को ट्रेनिंग देते समय, एक बार दोहराना इसमें ये दो पास शामिल हैं:

  1. एक बैच में नुकसान का आकलन करने के लिए फ़ॉरवर्ड पास.
  2. बैकवर्ड पास (बैकप्रोपगेशन) की मदद से, लॉस और लर्निंग रेट के आधार पर मॉडल के पैरामीटर.

J

JAX

एक अरे कंप्यूटिंग लाइब्रेरी, जो एक साथ काम करती है XLA (Accelerated लीनियर बीजगणित) और अपने-आप फ़र्क़ करने के लिए की है. JAX, एक आसान और बेहतरीन कंपोज़ेबल ट्रांसफ़ॉर्मेशन के साथ फटाफट जानकारी देने वाले न्यूमेरिक कोड को लिखने के लिए एपीआई. JAX में ये सुविधाएं मिलती हैं:

  • grad (अपने-आप अलग होने की सुविधा)
  • jit (खास तौर पर एक साथ कई शॉर्ट वीडियो का कंपाइलेशन)
  • vmap (ऑटोमैटिक वेक्टराइज़ेशन या बैचिंग)
  • pmap (साथ में प्रोसेस होना)

JAX, अंकों वाली वैल्यू को अलग-अलग टेक्स्ट में बदलने के लिए इस्तेमाल की जाने वाली भाषा है Python के NumPy से मिलता-जुलता कोड, लेकिन उसके दायरे में बहुत बड़ा लाइब्रेरी. (वास्तव में, JAX में मौजूद .numpy लाइब्रेरी, फ़ंक्शनल तौर पर एक जैसी है, लेकिन Python NumPy लाइब्रेरी का पूरी तरह से दोबारा लिखा गया वर्शन है.)

JAX, खास तौर पर मशीन लर्निंग के कई टास्क को तेज़ी से पूरा करने में मदद करता है मॉडल और डेटा को समानांतरवाद के लिए उपयुक्त रूप में बदलकर जीपीयू और TPU ऐक्सेलरेटर चिप का इस्तेमाल करें.

Flax, Optax, Pax, और अन्य प्लैटफ़ॉर्म लाइब्रेरी को JAX इन्फ़्रास्ट्रक्चर पर बनाया गया है.

K

Keras

एक लोकप्रिय Python मशीन लर्निंग एपीआई. Keras इस पर चलता है कई डीप लर्निंग फ़्रेमवर्क के आधार पर बनाया जाता है. इनमें TensorFlow भी शामिल है, जहां इसे इस रूप में उपलब्ध tf.keras.

कर्नेल सपोर्ट वेक्टर मशीन्स (KSVM)

एक क्लासिफ़िकेशन एल्गोरिदम, जो दो तरह के नतीजों के बीच के मार्जिन को बढ़ाना चाहता है पॉज़िटिव और इनपुट डेटा वेक्टर को मैप करके, नेगेटिव क्लास सैटलाइट से ली गई तस्वीरें देख सकते हैं. उदाहरण के लिए, प्रॉडक्ट की कैटगरी तय करने के बारे में सोचें इनपुट डेटासेट सौ फीचर्स हैं. बीच के मार्जिन को बढ़ाने के लिए पॉज़िटिव और नेगेटिव क्लास का इस्तेमाल करते हैं, तो KSVM उन सुविधाओं को अंदरूनी तौर पर 10 लाख डाइमेंशन वाला स्पेस. KSVM, लॉस फ़ंक्शन का इस्तेमाल करता है जिसे हिंज कम हो जाना.

मुख्य बातें

#image

किसी इमेज में खास सुविधाओं के निर्देशांक. उदाहरण के लिए, इमेज की पहचान करने वाला मॉडल, जो फूलों की प्रजातियां, अहम बिंदु हर पंखुड़ी के बीच में, तने के बीच में हो सकते हैं स्टैमेन वगैरह.

के-फ़ोल्ड क्रॉस वैलिडेशन

किसी मॉडल की क्षमता का अनुमान लगाने के लिए एल्गोरिदम नए डेटा के बारे में सामान्य जानकारी दें. k-फ़ोल्ड में k का मतलब है डेटासेट के उदाहरणों को बराबर ग्रुप में बांटना; यानी, जब आप और अपने मॉडल को k बार टेस्ट करें. ट्रेनिंग और टेस्टिंग के हर राउंड के लिए, कोई एक अलग ग्रुप, टेस्ट सेट है और बाकी सभी ग्रुप ट्रेनिंग बन जाते हैं सेट. प्रशिक्षण और परीक्षण के बाद, आप माध्य की गणना करते हैं और चुने गए टेस्ट मेट्रिक का स्टैंडर्ड डीविएशन.

उदाहरण के लिए, मान लें कि आपके डेटासेट में 120 उदाहरण हैं. इसके अलावा, मान लीजिए कि आप k को 4 पर सेट करने का फ़ैसला करते हैं. इसलिए, उदाहरणों को शफ़ल करने के बाद, आप डेटासेट को 30 उदाहरणों के चार बराबर ग्रुप में बांटते हैं और चार ट्रेनिंग और टेस्टिंग राउंड:

डेटासेट को उदाहरणों के चार बराबर ग्रुप में बांटा गया है. पहले राउंड में,
          पहले तीन ग्रुप का इस्तेमाल ट्रेनिंग के लिए किया जाता है और आखिरी ग्रुप
          को टेस्ट करने के लिए इस्तेमाल किया जाता है. दूसरे राउंड में, पहले दो ग्रुप और आखिरी
          ग्रुप का इस्तेमाल ट्रेनिंग के लिए किया जाता है, जबकि तीसरे ग्रुप का इस्तेमाल ट्रेनिंग के लिए किया जाता है
          टेस्टिंग हो रही है. तीसरे राउंड में, पहला और आखिरी दो ग्रुप
          इसका इस्तेमाल ट्रेनिंग के लिए किया जाता है, जबकि दूसरे ग्रुप का इस्तेमाल टेस्टिंग के लिए किया जाता है.
          राउंड 4 में, पहले ग्रुप का इस्तेमाल टेस्टिंग के लिए किया जाता है. हालांकि, फ़ाइनल ग्रुप में शामिल होने के लिए
          ट्रेनिंग के लिए तीन ग्रुप का इस्तेमाल किया जाता है.

उदाहरण के लिए, मीन स्क्वेयर्ड एरर (MSE) लीनियर रिग्रेशन मॉडल के लिए सबसे सही मेट्रिक होनी चाहिए. इसलिए, आपको सभी चारों राउंड में MSE का माध्य और स्टैंडर्ड डीविएशन पता कर पाएंगे.

के-मीन

#clustering

यह एक लोकप्रिय क्लस्टरिंग एल्गोरिदम है, जिसमें उदाहरणों को ग्रुप किया जाता है बिना निगरानी के देखा जा सकता है. k-मीन एल्गोरिदम मूल रूप से ये काम करता है:

  • बार-बार दोहराए जाने से, सबसे अच्छे k केंद्र बिंदु तय होते हैं ( सेंट्रोइड के तौर पर).
  • हर उदाहरण को सबसे पास के सेंट्रोइड पर असाइन करता है. नज़दीकी उदाहरण एक समान केंद्रक एक ही समूह से संबंधित होता है.

k-मीन एल्गोरिदम, कन्वर्ज़न की कुल संख्या को कम करने के लिए, सेंटर्रोइड लोकेशन चुनता है हर उदाहरण से उसके सबसे नज़दीक के सेंट्रोइड तक की दूरी का स्क्वेयर.

उदाहरण के लिए, कुत्ते की लंबाई और कुत्ते की चौड़ाई के हिसाब से जानकारी देने वाले ये प्लॉट देखें:

कई दर्जन डेटा पॉइंट वाला एक कार्टीज़न प्लॉट.

अगर k=3 है, तो k-मीन एल्गोरिदम, तीन सेंट्रोइड तय करेगा. हर उदाहरण को इसके सबसे नज़दीक के सेंट्रोइड से असाइन किया जाता है. इससे हमें तीन ग्रुप मिलते हैं:

ऊपर दिए गए उदाहरण में दिया गया कार्टीज़न प्लॉट (कार्टीज़न प्लॉट) बनाना. इसमें ये चीज़ें शामिल नहीं हैं:
          इसमें तीन सेंट्रोइड जोड़े गए हैं.
          पिछले डेटा पॉइंट, तीन अलग-अलग ग्रुप में बांटे गए हैं.
          जिसमें हर ग्रुप उस डेटा पॉइंट को दिखाता है जो उस डेटा पॉइंट के सबसे करीब है
          सेंट्रोइड.

मान लें कि एक निर्माता छोटे साइज़, कुत्तों के लिए मीडियम और बड़े स्वेटर. तीन सेंट्रोइड माध्य की पहचान करते हैं ग्रुप में हर कुत्ते की लंबाई और औसत चौड़ाई की जानकारी मिलती है. इसलिए, मैन्युफ़ैक्चरर स्वेटर का साइज़ उन तीन सेंट्रोइड पर होना चाहिए. ध्यान दें कि क्लस्टर का केंद्रक आमतौर पर क्लस्टर में एक उदाहरण नहीं होता है.

ऊपर दिए गए इलस्ट्रेशन में सिर्फ़ उदाहरण के लिए k-मीन दिखाया गया है दो सुविधाएं (ऊंचाई और चौड़ाई). ध्यान दें कि k-मीन, उदाहरणों को ग्रुप में बांट सकते हैं कई सुविधाओं पर बात करते हैं.

के-मीडियन

#clustering

क्लस्टरिंग एल्गोरिदम, जो k-means से काफ़ी मिलता-जुलता है. कॉन्टेंट बनाने दोनों के बीच व्यावहारिक अंतर इस प्रकार है:

  • k-मीन में, सेंट्रोइड, सेंट्रोइड कैंडिडेट और हर एक के बीच की दूरी के स्क्वेयर इसके उदाहरण देखें.
  • k-मीडियन में, सेंट्रोइड का पता लगाने के लिए, सेंट्रोइड उम्मीदवार और इसके हर उदाहरण के बीच की दूरी.

ध्यान दें कि दूरी की परिभाषाएं भी अलग-अलग हैं:

  • k-मीन, से यूक्लिडियन दूरी सेंट्रोइड से उदाहरण के लिए. (दो डाइमेंशन में, यूक्लिडियन दूरी का मतलब है, पाइथागोरस प्रमेय की मदद से गणना करना कर्ण.) उदाहरण के लिए, k-मीन की दूरी (2,2) है और (5,-2) का मतलब होगा:
$$ {\text{Euclidean distance}} = {\sqrt {(2-5)^2 + (2--2)^2}} = 5 $$
  • k-मीडियन, मैनहैटन की दूरी पर निर्भर करता है सेंट्रोइड से उदाहरण तक. यह दूरी कुल कुल डेल्टा का अनुमान है. उदाहरण के लिए, k-मीडियन (2,2) और (5,-2) के बीच की दूरी:
$$ {\text{Manhattan distance}} = \lvert 2-5 \rvert + \lvert 2--2 \rvert = 7 $$

L

L0 रेगुलराइज़ेशन

#fundamentals

यह एक तरह का रेगुलराइज़ेशन होता है, गैर-शून्य वेट की कुल संख्या को कम करता है एक मॉडल में काम करती है. उदाहरण के लिए, 11 अशून्य भार वाला मॉडल 10 नॉन शून्य वेट वाले मिलते-जुलते मॉडल की तुलना में ज़्यादा जुर्माना लगाया जाएगा.

L0 रेगुलराइज़ेशन को कभी-कभी L0-norm रेगुलराइज़ेशन भी कहा जाता है.

L1 की कमी

#fundamentals

ऐब्सलूट वैल्यू का हिसाब लगाने वाला लॉस फ़ंक्शन असली लेबल की वैल्यू और वे वैल्यू जिनका अनुमान मॉडल लगाता है. उदाहरण के लिए, यहां पांच के बैच के लिए L1 लॉस का हिसाब उदाहरण:

उदाहरण की असल वैल्यू मॉडल की अनुमानित वैल्यू डेल्टा का निरपेक्ष मान
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = L1 नुकसान

L1 की कमी, बाहरी वजहों के हिसाब से कम संवेदनशील होती है L2 नुकसान से ज़्यादा है.

मीन ऐब्सॉल्यूट एरर औसत वैल्यू है हर उदाहरण के लिए L1 नुकसान.

L1 रेगुलराइज़ेशन

#fundamentals

एक तरह का रेगुलराइज़ेशन, जिसकी वजह से के निरपेक्ष मान के योग के अनुपात में भार वज़न. L1 रेगुलराइज़ेशन की मदद से, उन क्वेरी को प्राथमिकता दी जाती है जो काम के नहीं हैं या शायद ही किसी काम की सुविधा को बिलकुल 0 कर पाएं. इनके साथ वाली सुविधा मॉडल से 0 वज़न हटा दिया जाता है.

L2 रेगुलराइज़ेशन से अलग करें.

L2 की कमी

#fundamentals

ऐसा लॉस फ़ंक्शन जो स्क्वेयर कैलकुलेट करता है असली लेबल की वैल्यू और वे वैल्यू जिनका अनुमान मॉडल लगाता है. उदाहरण के लिए, यहां पांच के बैच के लिए, L2 लॉस का हिसाब उदाहरण:

उदाहरण की असल वैल्यू मॉडल की अनुमानित वैल्यू डेल्टा का वर्ग
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = L2 नुकसान

स्क्वैरिंग की वजह से, L2 की कमी से आउटलायर. इसका मतलब है कि अगर L2 लॉस, खराब अनुमानों पर ज़्यादा प्रतिक्रिया देता है, तो L1 नुकसान. उदाहरण के लिए, L1 का नुकसान तो पिछले बैच के लिए, 16 के बजाय 8 होगा. ध्यान दें कि एक बाहरी खाते 16 में से 9 के लिए हैं.

रिग्रेशन मॉडल आम तौर पर, L2 लॉस का इस्तेमाल करते हैं घटाने के फ़ंक्शन के तौर पर.

मीन स्क्वेयर्ड एरर औसत वैल्यू है हर उदाहरण के लिए L2 नुकसान. L2 लॉस का दूसरा नाम स्क्वेयर लॉस भी है.

L2 रेगुलराइज़ेशन

#fundamentals

एक तरह का रेगुलराइज़ेशन, जिसकी वजह से भार के स्क्वेयर के योग के अनुपात में भार. L2 को रेगुलर करने से आउटलायर वेट (जिन्हें वैल्यू 0 के करीब हों, लेकिन 0 के आस-पास न हों. ऐसी सुविधाएं मॉडल में बनी रहती हैं जिनकी वैल्यू 0 के बहुत करीब होती है लेकिन मॉडल के अनुमान पर ज़्यादा असर नहीं डालते.

L2 रेगुलराइज़ेशन की सुविधा से, सामान्य जानकारी पाने में हमेशा मदद मिलती है लीनियर मॉडल.

L1 रेगुलराइज़ेशन से अलग करें.

लेबल

#fundamentals

सुपरवाइज़्ड मशीन लर्निंग में, "जवाब दो" या "नतीजे" वाला हिस्सा एक उदाहरण का है.

लेबल किए गए हर उदाहरण में एक या एक से ज़्यादा चीज़ें होती हैं सुविधाएं और एक लेबल. उदाहरण के लिए, स्पैम फ़ोल्डर में डेटासेट का पता लगाने के लिए, वह लेबल या तो "स्पैम" हो सकता है या "यह स्पैम नहीं है." बारिश के डेटासेट में, लेबल एक तय समय के दौरान हुई बारिश.

लेबल किया गया उदाहरण

#fundamentals

उदाहरण के लिए, एक या एक से ज़्यादा सुविधाएं और label. उदाहरण के लिए, नीचे दी गई टेबल में तीन हाउस वैल्यूएशन मॉडल के लेबल किए गए उदाहरण. हर एक में तीन सुविधाएं हैं और एक लेबल:

कमरों की संख्या बाथरूम की संख्या घर की उम्र घर की कीमत (लेबल)
3 2 15 3,45,000 डॉलर
2 1 72 1,79,000 डॉलर
4 2 34 3,92,000 डॉलर

सुपरवाइज़्ड मशीन लर्निंग में, मॉडल, लेबल किए गए उदाहरणों के आधार पर ट्रेनिंग देते हैं और इन पर अनुमान लगाते हैं बिना लेबल वाले उदाहरण.

बिना लेबल वाले उदाहरणों के साथ कंट्रास्ट लेबल किए गए उदाहरण.

लेबल लीकेज

मॉडल के डिज़ाइन से जुड़ी ऐसी गड़बड़ी जिसमें सुविधा label. उदाहरण के लिए, बाइनरी क्लासिफ़िकेशन मॉडल, जो अनुमान लगाता है क्या कोई संभावित खरीदार किसी खास प्रॉडक्ट को खरीदेगा या नहीं. मान लें कि इस मॉडल की एक सुविधा, बूलियन नाम की SpokeToCustomerAgent. मान लें कि कोई ग्राहक एजेंट सिर्फ़ संभावित ग्राहक को असल में खरीदारी करने के बाद असाइन की जाती है प्रॉडक्ट. ट्रेनिंग के दौरान, मॉडल जल्द ही जुड़ाव के बारे में जान लेगा SpokeToCustomerAgent और लेबल के बीच.

लैम्डा

#fundamentals

रेगुलराइज़ेशन रेट का समानार्थी शब्द.

Lambda एक ओवरलोडेड टर्म है. यहां हम उन कीवर्ड पर फ़ोकस कर रहे हैं जिनका रेगुलराइज़ेशन में दी गई परिभाषा.

LaMDA (बातचीत ऐप्लिकेशन के लिए भाषा का मॉडल)

#language

Transformer-आधारित बड़ा लैंग्वेज मॉडल. इसे Google ने डेवलप किया है. इसे Google ने ट्रेनिंग दी है यह एक बड़ा डायलॉग डेटासेट है, जो बातचीत के असली लगने वाले जवाब दे सकता है.

LaMDA: हमारी अहम बातचीत टेक्नोलॉजी से खास जानकारी मिलती है.

लैंडमार्क

#image

कीपॉइंट के लिए समानार्थी शब्द.

लैंग्वेज मॉडल

#language

ऐसा मॉडल जो टोकन की संभावना का अनुमान लगाता है या टोकन की एक लंबी सूची में होने वाले टोकन का क्रम.

लार्ज लैंग्वेज मॉडल

#language

कम से कम, किसी ऐसे भाषा मॉडल की वैल्यू बहुत ज़्यादा हो पैरामीटर का इस्तेमाल किया जाता है. अनौपचारिक रूप से, किसी भी Transformer-आधारित लैंग्वेज मॉडल, जैसे Gemini या GPT.

लैटेंट स्पेस

#language

स्पेस एम्बेड करने का समानार्थी शब्द.

लेयर

#fundamentals

न्यूरॉन के एक सेट को न्यूरल नेटवर्क. लेयर के तीन सामान्य टाइप ये हैं:

उदाहरण के लिए, नीचे दिए गए इलस्ट्रेशन में न्यूरल नेटवर्क दिखाया गया है, जिसमें एक इनपुट लेयर, दो छिपी हुई लेयर, और एक आउटपुट लेयर:

एक इनपुट लेयर, छिपी हुई दो लेयर, और एक लेयर वाला न्यूरल नेटवर्क
          आउटपुट लेयर. इनपुट लेयर में दो सुविधाएं होती हैं. पहला
          छिपी हुई लेयर में तीन न्यूरॉन और दूसरी छिपी हुई लेयर होती है
          इसमें दो न्यूरॉन होते हैं. आउटपुट लेयर में एक नोड होता है.

TensorFlow में, layers ऐसे Python फ़ंक्शन भी हैं जो इनपुट और कॉन्फ़िगरेशन के विकल्पों के तौर पर टेंसर और आउटपुट के रूप में अन्य टेंसर बनाएं.

लेयर एपीआई (tf.layers)

#TensorFlow

डीप न्यूरल नेटवर्क बनाने के लिए, TensorFlow एपीआई कई लेयर होती हैं. लेयर एपीआई की मदद से, अलग-अलग लेयर बनाई जा सकती हैं लेयर के टाइप, जैसे:

लेयर एपीआई, Keras लेयर एपीआई के नियमों का पालन करता है. इसका मतलब है कि एक अलग प्रीफ़िक्स को छोड़कर, लेयर एपीआई के सभी फ़ंक्शन उनके नाम और हस्ताक्षर, Keras में उनसे मिलते-जुलते नामों और हस्ताक्षरों के हों लेयर एपीआई.

पत्ती

#df

डिसिज़न ट्री में मौजूद कोई भी एंडपॉइंट. इसे नापसंद करें स्थिति, यानी कि लीफ़ टेस्ट नहीं करती. इसके बजाय, लीफ़ देने का अनुमान लगाया जा सकता है. पत्ती भी टर्मिनल होती है अनुमान पाथ का नोड.

उदाहरण के लिए, नीचे दिए गए डिसिज़न ट्री में तीन पत्तियां हैं:

दो शर्तों वाला डिसिज़न ट्री, जिस पर तीन पत्तियां लगाई गई हैं.

लर्निंग इंटरप्रिटेबिलिटी टूल (एलआईटी)

यह विज़ुअल, मॉडल को समझने और डेटा को आसानी से समझने में मदद करने वाला इंटरैक्टिव टूल है.

ओपन सोर्स LIT का इस्तेमाल करके मॉडल को समझने या विज़ुअलाइज़ करने के लिए टेक्स्ट, इमेज, और टेबल में तैयार किया गया डेटा शामिल है.

सीखने की दर

#fundamentals

एक फ़्लोटिंग-पॉइंट नंबर, जो ग्रेडिएंट डिसेंट के बारे में बताता है एल्गोरिदम की सुरक्षा के लिए, दोहराव. उदाहरण के लिए, 0.3 की सीखने की दर सीखने की दर की तुलना में तीन गुना ज़्यादा बेहतर तरीके से वज़न और पूर्वाग्रह को घटाना या बढ़ाना 0.1 में से.

लर्निंग रेट, एक मुख्य हाइपर पैरामीटर है. अगर आपने सेट किया है, तो सीखने की दर बहुत कम है, इसलिए ट्रेनिंग में बहुत समय लगेगा. अगर आपने आपने सीखने की दर को बहुत ज़्यादा पर सेट किया हो, ग्रेडिएंट ढलान में अक्सर परेशानी होती है कन्वर्ज़न तक पहुंचना.

कम से कम स्क्वेयर रिग्रेशन

लीनियर रिग्रेशन मॉडल को मिनिमाइज़िंग रिग्रेशन से ट्रेनिंग दी गई है L2 नुकसान.

रेखीय

#fundamentals

दो या उससे ज़्यादा वैरिएबल के बीच का संबंध, जिसे सिर्फ़ दिखाया जा सकता है जोड़ने और गुणा करने की सुविधा का इस्तेमाल करके.

लीनियर रिलेशनशिप का प्लॉट एक लाइन होता है.

nonlinear से कंट्रास्ट करें.

लीनियर मॉडल

#fundamentals

ऐसा मॉडल जो हर छात्र-छात्रा के लिए एक वज़न असाइन करता हो पूर्वानुमान बनाने के लिए, सुविधा का इस्तेमाल करें. (लीनियर मॉडल में पूर्वाग्रह भी शामिल होता है.) इसके उलट, डीप मॉडल में, अनुमान और सुविधाओं के बीच संबंध आम तौर पर, nonlinear होता है.

आम तौर पर, लीनियर मॉडल को ट्रेनिंग देना आसान होता है. साथ ही, डीप मॉडल की तुलना में समझा जा सकता है. हालांकि, डीप मॉडल, सुविधाओं के बीच जटिल संबंध सीख सकते हैं.

लीनियर रिग्रेशन और लॉजिस्टिक रिग्रेशन दो तरह के लीनियर मॉडल हैं.

लीनियर रिग्रेशन

#fundamentals

एक तरह का मशीन लर्निंग मॉडल, जिसमें नीचे दी गई दोनों बातें सही होती हैं:

  • यह मॉडल एक लीनियर मॉडल है.
  • अनुमान, फ़्लोटिंग-पॉइंट की एक वैल्यू होती है. (यह रिग्रेशन, लीनियर रिग्रेशन का हिस्सा है.)

लॉजिस्टिक रिग्रेशन की मदद से, लीनियर रिग्रेशन के बीच का अंतर बताएं. इसके अलावा, क्लासिफ़िकेशन के साथ रिग्रेशन के कंट्रास्ट का इस्तेमाल करें.

LIT

लर्निंग इंटरप्रिटेबिलिटी टूल (एलआईटी), इसे पहले लैंग्वेज इंटरप्रिटेबिलिटी टूल के नाम से जाना जाता था.

LLM

#language
#generativeAI

बड़े लैंग्वेज मॉडल के लिए छोटा नाम.

एलएलएम इवैलुएशन (आकलन)

#language
#generativeAI

परफ़ॉर्मेंस का आकलन करने के लिए मेट्रिक और मानदंडों का सेट बड़े लैंग्वेज मॉडल (एलएलएम). हाई लेवल पर, एलएलएम इवैलुएशन:

  • उन इलाकों की पहचान करने में शोधकर्ताओं की मदद करें जहां एलएलएम को बेहतर बनाने की ज़रूरत है.
  • अलग-अलग एलएलएम की तुलना करने और किसी किसी खास टास्क को पूरा करना हो.
  • यह पक्का करने में मदद करना कि एलएलएम इस्तेमाल में सुरक्षित और नैतिक हैं.

लॉजिस्टिक रिग्रेशन

#fundamentals

यह एक तरह का रिग्रेशन मॉडल है, जो प्रॉबबिलिटी का अनुमान लगाता है. लॉजिस्टिक रिग्रेशन मॉडल की विशेषताएं:

  • लेबल कैटगरिकल है. लॉजिस्टिक शब्द आम तौर पर, रिग्रेशन का मतलब बाइनरी लॉजिस्टिक रिग्रेशन होता है. इसका मतलब है कि , जो दो संभावित वैल्यू वाले लेबल के लिए, प्रॉबबिलिटी कैलकुलेट करता है. एक कम सामान्य वैरिएंट, मल्टीनोमियल लॉजिस्टिक रिग्रेशन दो से ज़्यादा संभावित मानों वाले लेबल के लिए प्रायिकता.
  • ट्रेनिंग के दौरान होने वाले नुकसान का फ़ंक्शन, लॉग लॉस है. (लॉग लॉस की एक से ज़्यादा यूनिट को लेबल के साथ-साथ रखा जा सकता है) दो से ज़्यादा संभावित वैल्यू वाला फ़ॉर्मैट इस्तेमाल करें.)
  • इस मॉडल में लीनियर आर्किटेक्चर का इस्तेमाल किया गया है, न कि डीप न्यूरल नेटवर्क. हालांकि, इस परिभाषा का शेष हिस्सा इन पर भी लागू होता है डीप मॉडल, जो संभावनाओं का अनुमान लगाते हैं इस्तेमाल किया जा सकता है.

उदाहरण के लिए, एक ऐसे लॉजिस्टिक रिग्रेशन मॉडल पर विचार करें जो किसी इनपुट ईमेल के स्पैम या स्पैम नहीं होने की संभावना. अनुमान के दौरान, मान लें कि मॉडल 0.72 का अनुमान लगाता है. इसलिए, मॉडल का अनुमान लगा रहा है:

  • ईमेल के स्पैम होने की 72% संभावना.
  • इस बात की 28% संभावना होती है कि ईमेल स्पैम न हो.

लॉजिस्टिक रिग्रेशन मॉडल में, दो चरणों वाले इन आर्किटेक्चर का इस्तेमाल किया जाता है:

  1. यह मॉडल, लीनियर फ़ंक्शन लागू करके, अनुमानित अनुमान (y') जनरेट करता है सुविधाओं का इस्तेमाल करें.
  2. यह मॉडल इस रॉ अनुमान का इस्तेमाल इनपुट के तौर पर sigmoid फ़ंक्शन, जो रॉ डेटा को कन्वर्ट करता है इसमें 0 और 1 के बीच की कोई वैल्यू का अनुमान शामिल होता है.

किसी भी रिग्रेशन मॉडल की तरह, लॉजिस्टिक रिग्रेशन मॉडल किसी संख्या का अनुमान लगाता है. हालांकि, यह संख्या आम तौर पर बाइनरी क्लासिफ़िकेशन का हिस्सा बन जाती है मॉडल की जानकारी देखें:

  • अगर अनुमानित संख्या ज़्यादा है, तो क्लासिफ़िकेशन थ्रेशोल्ड, बाइनरी क्लासिफ़िकेशन मॉडल, पॉज़िटिव क्लास का अनुमान लगाता है.
  • अगर अनुमानित संख्या, क्लासिफ़िकेशन थ्रेशोल्ड से कम है, बाइनरी क्लासिफ़िकेशन मॉडल, नेगेटिव क्लास का अनुमान लगाता है.

लॉगिट

रॉ (नॉन-नॉर्मलाइज़्ड) ऐसे अनुमानों का वेक्टर जो किसी क्लासिफ़िकेशन मॉडल जनरेट करता है, जिसे आम तौर पर नॉर्मलाइज़ेशन फ़ंक्शन में पास किया जाता है. अगर मॉडल, मल्टी-क्लास क्लासिफ़िकेशन को हल कर रहा है की समस्या है, तो लॉजिट आम तौर पर softmax फ़ंक्शन का इस्तेमाल करना होगा. इसके बाद, softmax फ़ंक्शन, (नॉर्मलाइज़्ड) का वेक्टर जनरेट करता है हर संभावित क्लास के लिए एक वैल्यू होगी.

लॉग लॉस

#fundamentals

बाइनरी में इस्तेमाल किया जाने वाला लॉस फ़ंक्शन लॉजिस्टिक रिग्रेशन.

लॉग-ऑड

#fundamentals

किसी इवेंट की संख्याओं का लॉगरिद्म.

लंबी अवधि के लिए मेमोरी (एलएसटीएम)

#seq

इवेंट में एक टाइप की सेल प्रोसेस करने के लिए, बार-बार होने वाले न्यूरल नेटवर्क का इस्तेमाल किया जाता है ऐप्लिकेशन में डेटा का क्रम, जैसे कि लिखावट की पहचान, मशीन अनुवाद, और इमेज कैप्शनिंग. एलएसटीएम, घटने वाले ग्रेडिएंट की समस्या होती है, जो तब होती है लंबे डेटा क्रम की वजह से RNN को ट्रेनिंग देने के लिए, पिछले सेल के नए इनपुट और कॉन्टेक्स्ट के आधार पर इंटरनल मेमोरी की स्थिति को ट्रैक करता है.

LoRA

#language
#generativeAI

कम रैंक के हिसाब से ढल जाने की क्षमता का छोटा नाम.

हार

#fundamentals

किसी निगरानी में रखा गया मॉडल. इससे पता चलता है कि मॉडल का अनुमान, उसके लेबल से लिया गया है.

लॉस फ़ंक्शन, नुकसान का हिसाब लगाता है.

लॉस एग्रीगेटर

एक तरह का मशीन लर्निंग एल्गोरिदम, जो मॉडल की परफ़ॉर्मेंस को बेहतर बनाता है इसके लिए, उन्हें अलग-अलग मॉडल के अनुमानों और करने के लिए उन अनुमानों का इस्तेमाल किया जाता है. इस वजह से, लॉस एग्रीगेटर, अनुमानों के फ़र्क़ को कम कर सकता है और अनुमानों की सटीक होने को बेहतर बनाता है.

लॉस कर्व

#fundamentals

ट्रेनिंग की संख्या के फ़ंक्शन के तौर पर लॉस का प्लॉट दोहरावों. इस प्लॉट में, आम तौर पर होने वाले नुकसान के बारे में बताया गया है कर्व:

नुकसान बनाम ट्रेनिंग के बार-बार दोहराने का कार्टेज़ियन ग्राफ़, जिसमें
          शुरुआती डेटा में तेज़ी से गिरावट आती है और कुछ हद तक
          ड्रॉप और फिर एक सपाट ढलान का इस्तेमाल किया जाता है.

लॉस कर्व की मदद से यह तय किया जा सकता है कि आपका मॉडल कब है कन्वर्ज़न या ओवरफ़िटिंग.

लॉस कर्व इस तरह की सभी नुकसान को प्लॉट कर सकते हैं:

सामान्य तरीके से बताने वाला कर्व भी देखें.

लॉस फ़ंक्शन

#fundamentals

ट्रेनिंग या टेस्ट के दौरान, गणितीय फलन जो उदाहरणों के बैच में कमी. लॉस फ़ंक्शन से कम नुकसान होता है का उपयोग करने वाले मॉडलों की तुलना में सुझाव नहीं दिए हैं.

आम तौर पर, ट्रेनिंग का मकसद लॉस फ़ंक्शन में होने वाले नुकसान को कम करना होता है वापस करना.

लॉस फ़ंक्शन कई तरह के होते हैं. जिस नुकसान की भरपाई करनी है उसे चुनें फ़ंक्शन को लागू किया जा सकता है. उदाहरण के लिए:

लॉस सरफ़ेस

वज़न बनाम कम का ग्राफ़. ग्रेडिएंट डिसेंट का लक्ष्य उस वज़न का पता लगाने के लिए, जिसके लिए नुकसान की सतह एक स्थानीय कम से कम स्तर पर है.

कम रैंक के हिसाब से ढलने की क्षमता (LoRA)

#language
#generativeAI

बेहतर परफ़ॉर्म करने वाला एल्गोरिदम पैरामीटर की बेहतर ट्यूनिंग, जो फ़ाइन-ट्यून बड़े लैंग्वेज मॉडल के पैरामीटर. LoRA से ये फ़ायदे मिलते हैं:

  • ऐसी तकनीकों से ज़्यादा तेज़ी से फ़ाइन-ट्यून करता है, जिनके लिए किसी मॉडल की सभी को फ़ाइन-ट्यून करने की ज़रूरत होती है पैरामीटर का इस्तेमाल करें.
  • अनुमान की कंप्यूटेशनल लागत को कम करता है: मॉडल को बेहतर बनाना.

LoRA के साथ तैयार किया गया मॉडल अपने अनुमानों की क्वालिटी को बनाए रखता है या उसे बेहतर बनाता है.

LoRA किसी मॉडल के कई खास वर्शन को चालू करता है.

LSTM

#seq

लॉन्ग शॉर्ट-टर्म मेमोरी का छोटा नाम.

M

मशीन लर्निंग

#fundamentals

वह प्रोग्राम या सिस्टम जो को a इनपुट डेटा से लिया गया मॉडल. प्रशिक्षित मॉडल यह कर सकता है: इससे निकाले गए नए (पहले कभी नहीं देखे गए) डेटा से काम के अनुमान लगाने में डिस्ट्रिब्यूशन जो मॉडल को ट्रेनिंग देने के लिए इस्तेमाल किया जाता है.

मशीन लर्निंग का मतलब है, का इस्तेमाल कर सकते हैं.

बहुमत श्रेणी

#fundamentals

आम तौर पर, खोज के लिए इस्तेमाल होने वाले क्लास असंतुलित डेटासेट. उदाहरण के लिए, दिए गए डेटासेट में 99% नेगेटिव लेबल और 1% पॉज़िटिव लेबल मौजूद हैं, ज़्यादातर नेगेटिव लेबल ही आते हैं.

माइनरिटी क्लास से अलग करें.

मार्कोव के फ़ैसले की प्रोसेस (एमडीपी)

#rl

फ़ैसला लेने वाले मॉडल को दिखाने वाला ग्राफ़, जहां फ़ैसले इसके क्रम को नेविगेट करने के लिए (या कार्रवाइयां) अपनाई जाती हैं राज्य यह मानकर चलता है कि मार्कोव प्रॉपर्टी होल्ड. तय सीमा में रीइन्फ़ोर्समेंट लर्निंग, जैसे कि ये ट्रांज़िशन अलग-अलग राज्यों के बीच अंकों वाला इनाम मिलता है.

मार्कोव प्रॉपर्टी

#rl

कुछ एनवायरमेंट की प्रॉपर्टी, जहां राज्य ट्रांज़िशन का पूरी तरह से, मौजूदा स्थिति और एजेंट की कार्रवाई.

मास्क्ड लैंग्वेज मॉडल

#language

भाषा का ऐसा मॉडल जो यह अनुमान लगाता है कि खाली जगह को भरने के लिए, उम्मीदवार के टोकन का इस्तेमाल करें. उदाहरण के लिए, मास्क वाला लैंग्वेज मॉडल, उम्मीदवार के शब्दों की प्रायिकता का हिसाब लगा सकता है नीचे दिए गए वाक्य में अंडरलाइन को बदलने के लिए:

टोपी में ____ वापस आ गया.

साहित्य में आम तौर पर "MASK" स्ट्रिंग का इस्तेमाल किया जाता है ध्यान रखें. उदाहरण के लिए:

"MASK" टोपी में वापस आ गया.

ज़्यादातर आधुनिक मास्क वाले लैंग्वेज मॉडल दो-तरफ़ा हैं.

मैटप्लोटलिब

एक ओपन सोर्स Python 2D प्लॉटिंग लाइब्रेरी. matplotlib की मदद से, आपको के अलग-अलग पहलुओं के बारे में बात करते हैं.

मैट्रिक्स फ़ैक्टराइज़ेशन

#recsystems

गणित में, उन आव्यूहों को ढूंढने की एक तकनीक जिनके डॉट प्रॉडक्ट से टारगेट मैट्रिक्स.

सुझाव देने वाले सिस्टम में, टारगेट मैट्रिक्स उपयोगकर्ता को अक्सर आइटम पर रेटिंग. उदाहरण के लिए, लक्ष्य का आव्यूह कुछ इस तरह का दिख सकता है: इसके बाद, जहां धनात्मक पूर्णांक उपयोगकर्ता रेटिंग और 0 होते हैं इसका मतलब है कि उपयोगकर्ता ने फ़िल्म को रेटिंग नहीं दी है:

  कैसाब्लांका द फ़िलाडेल्फ़िया स्टोरी Black Panther वंडर वुमन दिल से
उपयोगकर्ता 1 5.0 3.0 0.0 2.0 0.0
उपयोगकर्ता 2 4.0 0.0 0.0 1.0 5.0
उपयोगकर्ता 3 3.0 1.0 4.0 5.0 0.0

मूवी के सुझाव देने वाले सिस्टम का मकसद, YouTube पर दर्शकों को बगैर रेटिंग वाली फ़िल्में. उदाहरण के लिए, क्या उपयोगकर्ता 1 को ब्लैक पैंथर पसंद आएगा?

सुझाव देने वाले सिस्टम के लिए एक तरीका, मैट्रिक्स का इस्तेमाल करना है फ़ैक्टराइज़ेशन:

उदाहरण के लिए, हमारे तीन उपयोगकर्ताओं और पांच आइटम पर, मैट्रिक्स गुणनखंडन का इस्तेमाल करना इससे ये यूज़र मैट्रिक्स और आइटम मैट्रिक्स मिल सकता है:

User Matrix                 Item Matrix

1.1   2.3           0.9   0.2   1.4    2.0   1.2
0.6   2.0           1.7   1.2   1.2   -0.1   2.1
2.5   0.5

उपयोगकर्ता मैट्रिक्स और आइटम मैट्रिक्स का डॉट प्रॉडक्ट एक सुझाव देता है ऐसा मैट्रिक्स जिसमें सिर्फ़ असली उपयोगकर्ता रेटिंग ही नहीं, बल्कि अनुमान भी शामिल होते हैं मूवी के लिए हैं जिन्हें हर व्यक्ति ने नहीं देखा है. उदाहरण के लिए, उपयोगकर्ता 1 की कैसाब्लांका की रेटिंग देखें, जो 5.0 थी. बिंदु सुझाव मैट्रिक्स में उस सेल से संबंधित प्रॉडक्ट को करीब 5.0 पर हो सकता है और यह:

(1.1 * 0.9) + (2.3 * 1.7) = 4.9

सबसे अहम बात यह है कि क्या उपयोगकर्ता 1 को ब्लैक पैंथर, पसंद आएगा? डॉट प्रॉडक्ट लेना जब पहली पंक्ति और तीसरे कॉलम के आधार पर एक अनुमान मिलता है, 4.3 की रेटिंग:

(1.1 * 1.4) + (2.3 * 1.2) = 4.3

मैट्रिक्स फ़ैक्टराइज़ेशन से आम तौर पर एक यूज़र मैट्रिक्स और आइटम मैट्रिक्स मिलता है, जो साथ में, ये टारगेट मैट्रिक्स की तुलना में काफ़ी छोटे होते हैं.

मीन ऐब्सॉल्यूट एरर (एमएई)

हर उदाहरण के लिए औसत नुकसान, जब L1 नुकसान होता है इस्तेमाल किया गया. औसत पूर्ण गड़बड़ी की गणना इस तरह करें:

  1. बैच के लिए, L1 लॉस का हिसाब लगाएं.
  2. L1 लॉस को बैच में उदाहरणों की संख्या से भाग दें.

उदाहरण के लिए, डिफ़ॉल्ट वैल्यू पर L1 लॉस का हिसाब लगाएं पांच उदाहरणों का बैच:

उदाहरण की असल वैल्यू मॉडल की अनुमानित वैल्यू नुकसान (असल और अनुमानित के बीच में अंतर)
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = L1 नुकसान

इसलिए, L1 की वैल्यू 8 है और उदाहरणों की संख्या पांच है. इसलिए, मीन ऐब्सॉल्यूट एरर (औसतन गड़बड़ी) यह होता है:

Mean Absolute Error = L1 loss / Number of Examples
Mean Absolute Error = 8/5 = 1.6

मीन स्क्वेयर्ड एरर और मीन स्क्वेयर्ड एरर के साथ कंट्रास्ट मीन ऐब्सलूट एरर रूट मीन स्क्वेयर्ड गड़बड़ी.

मीन स्क्वेयर्ड एरर (MSE)

हर उदाहरण के लिए औसत नुकसान, जब L2 नुकसान होता है इस्तेमाल किया गया. माध्य वर्ग गड़बड़ी की गणना इस तरह करें:

  1. बैच के लिए, L2 लॉस का हिसाब लगाएं.
  2. L2 लॉस को बैच में उदाहरणों की संख्या से भाग दें.

उदाहरण के लिए, पांच उदाहरणों के नीचे दिए गए बैच में नुकसान के बारे में सोचें:

वास्तविक मान मॉडल का अनुमान हार मिली स्क्वेयर लॉस
7 6 1 1
5 4 1 1
8 11 3 9
4 6 2 4
9 8 1 1
16 = L2 नुकसान

इसलिए, मीन स्क्वेयर्ड एरर यह होता है:

Mean Squared Error = L2 loss / Number of Examples
Mean Squared Error = 16/5 = 3.2

मीन स्क्वेयर्ड एरर एक लोकप्रिय ट्रेनिंग ऑप्टिमाइज़र है, खास तौर पर, लीनियर रिग्रेशन के लिए.

इसके साथ कंट्रास्ट मीन स्क्वेयर्ड एरर मीन ऐब्सॉल्यूट एरर और रूट मीन स्क्वेयर्ड गड़बड़ी.

TensorFlow Playground, 'मीन स्क्वेयर्ड एरर' का इस्तेमाल करता है नुकसान के मानों की गणना करने के लिए.

मेश

#TensorFlow
#GoogleCloud

एमएल पैरलल प्रोग्रामिंग में, एक शब्द जो डेटा और मॉडल को TPU चिप में शामिल किया जा सकता है. साथ ही, तय किया जा सकता है कि इन वैल्यू को कैसे शार्ड किया जाएगा या कैसे दोहराया जाएगा.

मेश एक ओवरलोडेड टर्म है, जिसका इनमें से कोई एक मतलब हो सकता है:

  • TPU चिप का फ़िज़िकल लेआउट.
  • डेटा और मॉडल को TPU के साथ मैप करने के लिए, एक ऐब्स्ट्रैक्ट लॉजिकल कंस्ट्रक्ट चिप्स.

दोनों ही मामलों में, मेश को आकार के तौर पर दिखाया जाता है.

मेटा-लर्निंग

#language

मशीन लर्निंग का एक सबसेट जो लर्निंग एल्गोरिदम को खोजता है या उसे बेहतर बनाता है. मेटा-लर्निंग सिस्टम का मकसद किसी मॉडल को ट्रेनिंग देना, ताकि वह किसी नए मॉडल को तुरंत सीख सके छोटे डेटा से या पिछले टास्क में मिले अनुभव के आधार पर मिला टास्क. मेटा-लर्निंग एल्गोरिदम आम तौर पर इन कामों को करने की कोशिश करते हैं:

  • हाथ से बनी सुविधाओं (जैसे, इनीशियलाइज़र या ऑप्टिमाइज़र होते हैं.
  • डेटा की कम खपत और गणना करने की क्षमता होनी चाहिए.
  • सामान्य जानकारी को बेहतर बनाएं.

मेटा-लर्निंग, कुछ शॉट के साथ सीखना से जुड़ा है.

मीट्रिक

#TensorFlow

वह आंकड़ा जो आपके लिए मायने रखता है.

मकसद एक ऐसी मेट्रिक होती है जो मशीन लर्निंग सिस्टम ऑप्टिमाइज़ करने की कोशिश करता है.

Metrics API (tf.metric)

मॉडल का आकलन करने के लिए, TensorFlow एपीआई. उदाहरण के लिए, tf.metrics.accuracy तय करता है कि किसी मॉडल का अनुमान, लेबल से कितनी बार मेल खाता है.

मिनी-बैच

#fundamentals

किसी एक में प्रोसेस किए गए बैच का एक छोटा, बिना किसी क्रम के चुना गया सबसेट दोहराव. आम तौर पर, मिनी-बैच का बैच का साइज़ होता है की कैटगरी में बांट सकते हैं.

उदाहरण के लिए, मान लें कि पूरा ट्रेनिंग सेट (पूरा बैच) इसमें 1,000 उदाहरण शामिल हैं. इसके बाद, यह मान लीजिए कि आपने हर मिनी-बैच का बैच साइज़ 20 तक होना चाहिए. इसलिए, प्रत्येक फिर से करने पर, 1,000 उदाहरणों में से 20 के क्रम में होने वाले नुकसान का पता चलता है और वज़न और पक्षपातों में बदलाव करता है.

मिनी-बैच में होने वाले नुकसान का हिसाब लगाना बेहतर होता है. पूरे बैच के सभी उदाहरणों में कमी.

मिनी-बैच स्टोकैस्टिक ग्रेडिएंट ढलान

ग्रेडिएंट डिसेंट एल्गोरिदम, जो मिनी-बैच. दूसरे शब्दों में, मिनी-बैच स्टोकैस्टिक ग्रेडिएंट डिसेंट, वैल्यू के छोटे सबसेट के आधार पर ग्रेडिएंट का अनुमान लगाता है ट्रेनिंग डेटा शामिल है. सामान्य स्टोकैस्टिक ग्रेडिएंट ढलान साइज़ 1 का मिनी बैच.

कम से कम नुकसान

इसके लिए लॉस फ़ंक्शन जनरेटिव एआई की मदद से काम करने वाले नेटवर्क, जो डिस्ट्रिब्यूशन के बीच की क्रॉस-एंट्रॉपी पर आधारित है और असली डेटा को अपने हिसाब से इस्तेमाल किया जा सकता है.

कम से कम नुकसान का इस्तेमाल इसमें पहला पेपर जिसमें बताया गया हो जनरेटिव एआई की मदद से काम करने वाले नेटवर्क.

अल्पसंख्यक वर्ग

#fundamentals

आम तौर पर, कम इस्तेमाल होने वाला लेबल क्लास असंतुलित डेटासेट. उदाहरण के लिए, दिए गए डेटासेट में 99% नेगेटिव लेबल और 1% पॉज़िटिव लेबल मौजूद हैं, पॉज़िटिव लेबल, अल्पसंख्यक वर्ग हैं.

ज़्यादातर वर्ग से अलग करें.

विशेषज्ञों का मिश्रण

#language
#generativeAI

न्यूरल नेटवर्क की क्षमता को बढ़ाने की स्कीम प्रोसेस करने के लिए, इसके पैरामीटर के सबसेट (जिसे विशेषज्ञ कहा जाता है) का इस्तेमाल करके दिए गए इनपुट में, टोकन या उदाहरण. ऐप्लिकेशन गेटिंग नेटवर्क, हर इनपुट टोकन या उदाहरण को सही विशेषज्ञ(विशेषज्ञों) तक भेजता है.

जानकारी के लिए, इनमें से कोई भी पेपर देखें:

माली (ML)

मशीन लर्निंग का छोटा नाम.

एमएमआईटी

#language
#image
#generativeAI

के लिए संक्षिप्त रूप मल्टीमॉडल निर्देश-ट्यून किया गया.

एमएनआईएसटी

#image

LeCun, Cortes, और Burges का इकट्ठा किया गया सार्वजनिक डोमेन का डेटासेट 60,000 इमेज, हर इमेज में दिखाया गया है कि इंसान ने मैन्युअल तरीके से किसी इमेज को कैसे लिखा 0 से 9 तक का अंक. हर इमेज को पूर्णांक के 28x28 कलेक्शन के तौर पर सेव किया जाता है, जहां हर पूर्णांक 0 से 255 के बीच का ग्रेस्केल वैल्यू होता है.

एमएनआईएसटी, मशीन लर्निंग के लिए एक कैननिकल डेटासेट है. इसका इस्तेमाल अक्सर नए मशीन लर्निंग के तरीके बताए गए हैं. जानकारी के लिए, यह देखें हाथ से लिखे गए अंकों का एमएनआईएसटी डेटाबेस.

मोडलिटी

#language

डेटा की बेहतर कैटगरी. उदाहरण के लिए, संख्याएं, टेक्स्ट, इमेज, वीडियो, और ऑडियो पांच अलग-अलग तरीके हैं.

मॉडल

#fundamentals

आम तौर पर, इनपुट डेटा और रिटर्न को प्रोसेस करने वाला कोई भी गणितीय निर्माण आउटपुट. इसे अलग तरीके से लिखा गया है. मॉडल, पैरामीटर और स्ट्रक्चर का सेट होता है जिसकी ज़रूरत किसी सिस्टम को अनुमान लगाने के लिए होती है. सुपरवाइज़्ड मशीन लर्निंग में, कोई मॉडल, इनपुट के तौर पर उदाहरण लेता है और आउटपुट के रूप में अनुमान. निगरानी में रखी गई मशीन लर्निंग में, मॉडल कुछ हद तक अलग होते हैं. उदाहरण के लिए:

  • लीनियर रिग्रेशन मॉडल में वेट का सेट होता है और पूर्वाग्रह.
  • न्यूरल नेटवर्क मॉडल में ये चीज़ें शामिल होती हैं:
  • डिसिज़न ट्री मॉडल में ये चीज़ें शामिल होती हैं:
    • पेड़ का आकार; इसका मतलब है कि वह पैटर्न जिसमें शर्तें और पत्तियां जुड़ी हुई हैं.
    • शर्तें और पत्तियां.

आपके पास किसी मॉडल को सेव करने, उसे वापस लाने या उसकी कॉपी बनाने का विकल्प होता है.

अनसुपरवाइज़्ड मशीन लर्निंग भी मॉडल जनरेट करता है. आम तौर पर, यह ऐसा फ़ंक्शन होता है जो इनपुट के उदाहरण को मैप कर सकता है सबसे सही क्लस्टर.

मॉडल की कपैसिटी

समस्याओं की जटिलता, जिन्हें मॉडल सीख सकता है. यह प्रोसेस जितनी मुश्किल होगी समस्याओं को सीख सकती है, इसलिए मॉडल की क्षमता उतनी ही ज़्यादा होगी. मॉडल का आम तौर पर, मॉडल पैरामीटर की संख्या बढ़ने पर क्षमता बढ़ जाती है. क्लासिफ़ायर क्षमता की औपचारिक परिभाषा, देखें वीसी डाइमेंशन शामिल होना चाहिए.

मॉडल कैस्केडिंग

#generativeAI

ऐसा सिस्टम जो किसी खास अनुमान के लिए सबसे सही मॉडल चुनता है क्वेरी.

ऐसे मॉडल के एक समूह की कल्पना करें जो बहुत बड़े (बहुत सारे पैरामीटर का इस्तेमाल करके बहुत छोटा (बहुत कम पैरामीटर) तक बदला जा सकता है. बहुत बड़े मॉडल छोटे मॉडल की तुलना में अनुमान समय. हालांकि, बहुत बड़ी संख्या में आम तौर पर, मॉडल को छोटे मॉडल की तुलना में ज़्यादा मुश्किल अनुरोध मिल सकते हैं. मॉडल कैस्केडिंग, अनुमान क्वेरी की जटिलता तय करता है और फिर अनुमान लगाने के लिए, सबसे सही मॉडल चुनता है. मॉडल कैस्केडिंग का मुख्य मकसद यह है कि अनुमान की लागत कम की जाए आम तौर पर छोटे मॉडल चुनते हैं और ज़्यादा इमेज के लिए सिर्फ़ बड़े मॉडल को चुनते हैं जटिल क्वेरी के लिए इस्तेमाल किया जाता है.

मान लें कि एक छोटा मॉडल किसी फ़ोन पर चलता है और उस मॉडल का बड़ा वर्शन रिमोट सर्वर पर चलता है. अच्छे मॉडल के कैस्केडिंग से लागत और इंतज़ार का समय इतना कम हो जाता है इससे छोटे मॉडल को सामान्य अनुरोधों को पूरा करने और सिर्फ़ मुश्किल अनुरोधों को मैनेज करने के लिए रिमोट मॉडल का इस्तेमाल करें.

मॉडल राऊटर भी देखें.

मॉडल पैरलिज़्म

#language

यह ट्रेनिंग या अनुमान को स्केल करने का एक ऐसा तरीका है जिसमें एक के बाद एक कई अलग-अलग डिवाइस पर मॉडल का इस्तेमाल करें. मॉडल समानांतरवाद ऐसे मॉडल को चालू करता है जो एक डिवाइस पर फ़िट होने के लिए बहुत बड़े होते हैं.

मॉडल समानता को लागू करने के लिए, सिस्टम आम तौर पर ये काम करता है:

  1. शार्ड, मॉडल को छोटे-छोटे हिस्सों में बांटते हैं.
  2. उन छोटे पार्ट को बनाने की ट्रेनिंग, एक से ज़्यादा प्रोसेसर के बीच बांटती है. हर प्रोसेसर, मॉडल का अपना हिस्सा खुद ही तैयार करता है.
  3. नतीजों को जोड़कर एक मॉडल बनाता है.

मॉडल पैरलिज़्म ट्रेनिंग को धीमा कर देता है.

डेटा समानता भी देखें.

मॉडल राऊटर

#generativeAI

वह एल्गोरिदम जो इसके लिए सबसे सही मॉडल तय करता है मॉडल कैस्केडिंग में अनुमान. मॉडल राऊटर अपने-आप में एक मशीन लर्निंग मॉडल होता है दिए गए इनपुट के लिए, सबसे सही मॉडल चुनने का तरीका धीरे-धीरे सीखता है. हालांकि, मॉडल राऊटर कभी-कभी ज़्यादा आसान हो सकता है, नॉन-मशीन लर्निंग एल्गोरिदम का इस्तेमाल करें.

मॉडल ट्रेनिंग

सबसे अच्छा मॉडल तय करने की प्रोसेस.

दिलचस्पी बढ़ाना

यह एक बेहतर ग्रेडिएंट डिसेंट एल्गोरिदम है, जिसमें लर्निंग स्टेप निर्भर करता है न सिर्फ़ मौजूदा चरण में डेरिवेटिव पर, बल्कि डेरिवेटिव पर भी के ठीक पहले वाले चरण(चरण) का हो. मोमेंटम में समय के साथ ग्रेडिएंट का तेज़ी से भारित मूविंग ऐवरेज में अहम भूमिका निभाता है. मोमेंटम कभी-कभी सीखने में रुकावट पैदा करता है स्थानीय मिनिमा में फंसा हुआ है.

MOE

#language
#image
#generativeAI

मिले-जुले विशेषज्ञों के लिए छोटा नाम.

कई क्लास की कैटगरी

#fundamentals

निगरानी में रखी गई लर्निंग में, क्लासिफ़िकेशन की समस्या जिसमें डेटासेट में लेबल की दो से ज़्यादा क्लास हों. उदाहरण के लिए, Iris डेटासेट में मौजूद लेबल इनमें से एक होना चाहिए तीन क्लास:

  • आइरिस सेटोसा
  • आइरिस वर्जिनिका
  • आइरिस वर्सीकलर

Iris डेटासेट पर तैयार किया गया एक मॉडल, जो नए उदाहरणों में Iris टाइप का अनुमान लगाता है मल्टी-क्लास क्लासिफ़िकेशन का इस्तेमाल कर रहा है.

इसके उलट, वर्गीकरण से जुड़ी ऐसी समस्याएं होती हैं जो सिर्फ़ दो के बीच का अंतर दिखाती हैं क्लास, बाइनरी क्लासिफ़िकेशन मॉडल होती हैं. उदाहरण के लिए, ऐसा ईमेल मॉडल जो स्पैम या स्पैम नहीं है का अनुमान लगाता है एक बाइनरी क्लासिफ़िकेशन मॉडल है.

क्लस्टरिंग समस्याओं में, मल्टी-क्लास क्लासिफ़िकेशन का मतलब दो क्लस्टर में.

मल्टी-क्लास लॉजिस्टिक रिग्रेशन

इसमें लॉजिस्टिक रिग्रेशन का इस्तेमाल करना होगा: मल्टी-क्लास क्लासिफ़िकेशन से जुड़े सवाल.

मल्टी-हेड सेल्फ़-अटेंशन

#language

खुद का ध्यान रखने की सुविधा का एक एक्सटेंशन, जो इनपुट सीक्वेंस में हर पोज़िशन के लिए, कई बार सेल्फ़-अटेंशन मैकेनिज़्म.

ट्रांसफ़ॉर्मर ने मल्टी-हेड सेल्फ़-अटेंशन पेश किया.

मल्टीमोडल मॉडल

#language

ऐसा मॉडल जिसके इनपुट और/या आउटपुट में एक से ज़्यादा फ़ील्ड शामिल हैं मोडैलिटी का इस्तेमाल करें. उदाहरण के लिए, ऐसे मॉडल पर विचार करें जो दोनों एक इमेज और एक टेक्स्ट का कैप्शन (दो तरीके) सुविधाएँ के तौर पर, और एक स्कोर देता है, जो बताता है कि इमेज के लिए टेक्स्ट का कैप्शन कितना सही है. इसलिए, इस मॉडल के इनपुट मल्टीमोडल होते हैं और आउटपुट यूनिमोडल होता है.

मल्टीमोडल इंस्ट्रक्शन-ट्यून

#language

निर्देश के हिसाब से बना मॉडल, जो इनपुट को प्रोसेस कर सकता है जैसे कि इमेज, वीडियो, और ऑडियो वगैरह.

बहुपद वर्गीकरण

मल्टी-क्लास क्लासिफ़िकेशन के लिए समानार्थी शब्द.

मल्टीनोमियल रिग्रेशन

समानार्थी शब्द मल्टी-क्लास लॉजिस्टिक रिग्रेशन.

मल्टीटास्क

एक मशीन लर्निंग तकनीक, जिसमें एक मॉडल को कई टास्क करने की ट्रेनिंग दी गई है.

मल्टीटास्क मॉडल को ऐसे डेटा पर ट्रेनिंग देकर बनाया जाता है जो इन कामों के लिए सही हो में से हर एक को पूरा करना होगा. इससे मॉडल को शेयर करने का तरीका सीखने में मदद मिलती है सभी टास्क की जानकारी होती है. इससे मॉडल को ज़्यादा असरदार तरीके से सीखने में मदद मिलती है.

कई कामों के लिए ट्रेन किए गए मॉडल में, सामान्य जानकारी देने की क्षमता अक्सर बेहतर होती है और अलग-अलग तरह के डेटा को ज़्यादा मज़बूत बनाया जा सकता है.

नहीं

नेएन ट्रैप

जब आपके मॉडल में एक नंबर, NaN बन जाता है ट्रेनिंग के दौरान होता है, जिसकी वजह से आपके मॉडल की कई या सभी संख्याएँ आखिरकार, वह एक NaN बन गया.

NaN, Not a Number का छोटा रूप होता है.

नैचुरल लैंग्वेज अंडरस्टैंडिंग

#language

उपयोगकर्ता ने क्या टाइप किया है या क्या कहा है, इस आधार पर उपयोगकर्ता का इरादा तय करना. उदाहरण के लिए, सर्च इंजन आम भाषा की समझ का इस्तेमाल इन कामों के लिए करता है उपयोगकर्ता ने क्या टाइप किया है या क्या कहा है, इसके आधार पर यह तय किया जा सकता है कि उपयोगकर्ता क्या खोज रहा है.

नेगेटिव क्लास

#fundamentals

बाइनरी क्लासिफ़िकेशन में, एक क्लास उसे पॉज़िटिव और दूसरे को नेगेटिव कहा जाता है. पॉज़िटिव क्लास है ऐसी चीज़ या इवेंट के लिए जिसे मॉडल टेस्ट कर रहा है और नेगेटिव क्लास अन्य संभावना. उदाहरण के लिए:

  • किसी मेडिकल टेस्ट में नेगेटिव क्लास "ट्यूमर नहीं" हो सकती है.
  • ईमेल की कैटगरी तय करने वाली सुविधा में, नेगेटिव क्लास "स्पैम नहीं" हो सकती है.

पॉज़िटिव क्लास से अलग करें.

नेगेटिव सैंपलिंग

उम्मीदवार के सैंपलिंग के लिए समानार्थी शब्द.

न्यूरल आर्किटेक्चर सर्च (एनएएस)

ऐसी तकनीक जो किसी वेबपेज के आर्किटेक्चर को अपने-आप डिज़ाइन करने की न्यूरल नेटवर्क का इस्तेमाल करें. एनएएस एल्गोरिदम की मदद से, समय और संसाधन की ज़रूरत होती है, ताकि न्यूरल नेटवर्क को ट्रेनिंग दी जा सके.

NAS आम तौर पर इनका इस्तेमाल करता है:

  • सर्च स्पेस, जो संभावित आर्किटेक्चर का सेट होता है.
  • फ़िटनेस फ़ंक्शन, जो यह मापता है कि आर्किटेक्चर दिए गए किसी टास्क पर काम करता है.

एनएएस एल्गोरिदम अक्सर संभावित आर्किटेक्चर के एक छोटे सेट से शुरू होते हैं और धीरे-धीरे खोज स्पेस का दायरा बढ़ाता जाएगा, क्योंकि एल्गोरिदम यह समझने में मदद करता है कि आर्किटेक्चर असरदार होते हैं. फ़िटनेस फ़ंक्शन आम तौर पर एक ट्रेनिंग सेट पर आर्किटेक्चर की परफ़ॉर्मेंस देखी है और एल्गोरिदम आम तौर पर, ट्रेनिंग रीइंफ़ोर्समेंट लर्निंग तकनीक.

एनएएस एल्गोरिदम की मदद से, सबसे अच्छी परफ़ॉर्मेंस वाले प्रॉडक्ट ढूंढे जा सकते हैं कई तरह के टास्क के लिए डिज़ाइन किया गया है. इसमें इमेज भी शामिल है. क्लासिफ़िकेशन, टेक्स्ट की कैटगरी तय करना, मशीन अनुवाद की सुविधा भी मिलती है.

न्यूरल नेटवर्क

#fundamentals

ऐसा मॉडल जिसमें कम से कम एक हो छिपी हुई लेयर. डीप न्यूरल नेटवर्क एक तरह का न्यूरल नेटवर्क है जिसमें एक से ज़्यादा छिपे हुए लेयर हों. उदाहरण के लिए, नीचे दिया गया डायग्राम देखकर एक डीप न्यूरल नेटवर्क दिखाता है, जिसमें दो छिपी हुई लेयर होती हैं.

इनपुट लेयर वाला न्यूरल नेटवर्क, जिसमें दो छिपी हुई लेयर और
          आउटपुट लेयर.

किसी न्यूरल नेटवर्क में मौजूद हर न्यूरॉन, अगली लेयर के सभी नोड से जुड़ा होता है. उदाहरण के लिए, पिछले डायग्राम में, ध्यान दें कि तीनों न्यूरॉन में से हर एक न्यूरॉन दोनों न्यूरॉन में, पहली छिपी हुई लेयर में दूसरी छिपी हुई लेयर.

कंप्यूटर पर लागू किए गए न्यूरल नेटवर्क को कभी-कभी आर्टिफ़िशियल न्यूरल नेटवर्क का इस्तेमाल कर सकते हैं, ताकि उन्हें दिमाग और अन्य नर्वस सिस्टम में पाए जाने वाले न्यूरल नेटवर्क.

कुछ न्यूरल नेटवर्क बेहद जटिल अरेखीय संबंधों की नकल कर सकते हैं सुविधाओं और लेबल के बीच स्विच कर सकता है.

कॉन्वोलूशनल न्यूरल नेटवर्क और बार-बार होने वाला न्यूरल नेटवर्क.

न्यूरॉन

#fundamentals

मशीन लर्निंग में, छिपी हुई लेयर में एक अलग यूनिट एक न्यूरल नेटवर्क का हो सकता है. हर न्यूरॉन ये काम करता है दो चरणों में होने वाली कार्रवाई:

  1. यह फ़ंक्शन, इनपुट वैल्यू के भारित योग को गुणा करने पर मिलने वाली वैल्यू का हिसाब लगाता है वज़न के आधार पर फ़िल्टर करें.
  2. भारित योग को इनपुट के रूप में ऐक्टिवेशन फ़ंक्शन.

पहली छिपी हुई लेयर में मौजूद न्यूरॉन, सुविधा की वैल्यू से इनपुट स्वीकार करता है इनपुट लेयर में जाएं. इसके अलावा, किसी दूसरी छिपी हुई लेयर में न्यूरॉन पहला डेटा, पिछली छिपी हुई लेयर में मौजूद न्यूरॉन से इनपुट स्वीकार करता है. उदाहरण के लिए, दूसरी छिपी हुई लेयर में मौजूद न्यूरॉन, न्यूरॉन शामिल हैं.

इस इलस्ट्रेशन में दो न्यूरॉन और उनके इनपुट.

इनपुट लेयर वाला न्यूरल नेटवर्क, जिसमें दो छिपी हुई लेयर और
          आउटपुट लेयर. दो न्यूरॉन हाइलाइट किए गए हैं: पहले में एक
          और दूसरी छिपी हुई लेयर में. हाइलाइट की गई
          पहली छिपी हुई लेयर में मौजूद न्यूरॉन को दोनों सुविधाओं से इनपुट मिलते हैं
          इनपुट लेयर में. दूसरी छिपी हुई लेयर में हाइलाइट किया गया न्यूरॉन
          पहले छिपाए गए तीन न्यूरॉन में से हर एक न्यूरॉन से इनपुट पाता है
          लेयर.

तंत्रिका नेटवर्क में मौजूद एक न्यूरॉन, दिमाग के न्यूरॉन के व्यवहार की नकल करता है और तंत्रिका तंत्र के अन्य भागों में हो सकता है.

एन-ग्राम

#seq
#language

N शब्दों का ऑर्डर किया गया क्रम. उदाहरण के लिए, पूरी तरह से पागलपन में 2-ग्राम होता है. क्योंकि में ऑर्डर करना चाहिए, लेकिन पूरी तरह से पूरी तरह से पागल की तुलना में एक अलग 2-ग्राम होता है.

नहीं इस तरह के एन-ग्राम के लिए नाम उदाहरण
2 बड़ाम या 2-ग्राम जाना, जाना, दोपहर का खाना, खाना
3 ट्राइग्राम या 3-ग्राम बहुत ज़्यादा खाया, तीन अंधे चूहे, बेल टोल
4 4 ग्राम पार्क में टहलना, हवा में धूल भरी आंधी, बच्चे ने दाल खा ली

सामान्य भाषा की समझ मॉडल, N-ग्राम की मदद से यह अनुमान लगाते हैं कि उपयोगकर्ता कौनसा शब्द टाइप करेगा या कहें. उदाहरण के लिए, मान लें कि किसी उपयोगकर्ता ने तीन ब्लाइंड टाइप किया. त्रिकोणमिति पर आधारित एक एनएलयू मॉडल यह अनुमान लगाएगा कि उपयोगकर्ता, अगली बार माइस टाइप करेगा.

शब्दों के बैग के साथ N-ग्राम के बीच अंतर करें, जो कि शब्दों का बिना क्रम वाला सेट.

एनएलयू

#language

प्राकृतिक भाषा के लिए संक्षिप्त नाम समझना.

नोड (डिसिज़न ट्री)

#df

डिसिज़न ट्री में, कोई भी स्थिति या लीफ़.

दो शर्तों और तीन पत्तियों वाला डिसिज़न ट्री.

नोड (न्यूरल नेटवर्क)

#fundamentals

छिपी हुई लेयर में एक न्यूरॉन.

नोड (TensorFlow ग्राफ़)

#TensorFlow

TensorFlow के ग्राफ़ में की गई कार्रवाई.

शोर

मोटे तौर पर, ऐसी कोई भी चीज़ जो डेटासेट में सिग्नल को छिपा देती है. शोर डेटा में कई तरीक़ों से शामिल किया जा सकता है. उदाहरण के लिए:

  • रेटिंग देने वाले लोग, वीडियो को लेबल करने में गलती करते हैं.
  • इंसान और इंस्ट्रुमेंट, सुविधाओं की वैल्यू को गलत तरीके से रिकॉर्ड या मिटा देते हैं.

नॉन-बाइनरी शर्त

#df

एक ऐसी स्थिति जिसमें दो से ज़्यादा संभावित नतीजे हो सकते हैं. उदाहरण के लिए, नीचे दी गई नॉन-बाइनरी शर्त में, तीन संभावितों नतीजे:

एक स्थिति (number_of_legs = ?) जो तीन संभावितों तक ले जाती है
          के नतीजे. एक नतीजा (number_of_legs = 8) लीफ़ देने के लिए जाता है
          स्पाइडर. दूसरे नतीजे (number_of_legs = 4) से यह नतीजा मिलता है
          कुत्ते के नाम वाली पत्ती. तीसरे नतीजे (number_of_legs = 2) से यह नतीजा मिलेगा
          एक पत्ती का नाम पेंग्विन है.

nonlinear

#fundamentals

दो या उससे ज़्यादा वैरिएबल के बीच का संबंध, जिसे सिर्फ़ दिखाया नहीं जा सकता जोड़ने और गुणा करने की सुविधा का इस्तेमाल करके. एक लीनियर संबंध इसे लाइन में दिखाया जा सकता है; एक nonlinear संबंध जिसे एक रेखा के रूप में दिखाया जाता है. उदाहरण के लिए, दो ऐसे मॉडल पर विचार करें जिनमें से हर एक संबंधित हो लेबल करने में मदद मिलती है. बाईं ओर मौजूद मॉडल, लीनियर है और दाईं ओर का मॉडल नॉनलीनियर है:

दो प्लॉट. एक प्लॉट एक लाइन है, इसलिए यह एक लीनियर रिलेशनशिप है.
          दूसरा प्लॉट एक कर्व है, इसलिए यह एक अरेखीय संबंध है.

नॉन-रिस्पॉन्स बायस

#fairness

चुनाव के मापदंड देखें.

नॉनस्टेशनरिटी

#fundamentals

ऐसी सुविधा जिसकी वैल्यू एक या उससे ज़्यादा डाइमेंशन में बदलती हैं. आम तौर पर, यह वैल्यू समय के हिसाब से बदल जाती है. उदाहरण के लिए, नॉनस्टेशनरिटी के इन उदाहरणों पर गौर करें:

  • किसी स्टोर में बेचे जाने वाले स्विमसूट की संख्या मौसम के हिसाब से अलग-अलग होती है.
  • किसी क्षेत्र में किसी खास फल की मात्रा साल के ज़्यादातर समय शून्य, लेकिन थोड़े समय के लिए बड़ी होती है.
  • जलवायु परिवर्तन की वजह से, सालाना औसत तापमान में बदलाव हो रहा है.

स्टेशनेरिटी के कंट्रास्ट से.

नॉर्मलाइज़ेशन

#fundamentals

मोटे तौर पर, किसी वैरिएबल की असल रेंज को बदलने की प्रोसेस में वैल्यू सेट करें, जैसे कि:

  • -1 से +1
  • 0 से 1
  • Z-स्कोर (करीब -3 से +3 तक)

उदाहरण के लिए, मान लें कि किसी विशेषता के मानों की वास्तविक सीमा है 800 से 2,400 तक. फ़ीचर इंजीनियरिंग के हिस्से के तौर पर, तो आपके पास असली वैल्यू को स्टैंडर्ड रेंज तक नॉर्मलाइज़ कर सकते हैं, जैसे के रूप में -1 से +1 करने के लिए.

नॉर्मलाइज़ेशन यहां एक सामान्य काम है फ़ीचर इंजीनियरिंग. आम तौर पर, मॉडल ज़्यादा तेज़ी से ट्रेनिंग लेते हैं (और बेहतर अनुमान लगा सकते हैं) जब फ़ीचर वेक्टर की रेंज करीब-करीब बराबर है.

नॉवल्टी डिटेक्शन

यह तय करने की प्रोसेस कि नया (नया) उदाहरण उसी ट्रेनिंग सेट के तौर पर डिस्ट्रिब्यूशन. दूसरे शब्दों में, इसके बाद ट्रेनिंग सेट पर किया जाता है, तो नॉवल्टी डिटेक्शन की मदद से यह पता चलता है कि क्या नया उदाहरण के लिए (अनुमान के दौरान या अतिरिक्त ट्रेनिंग के दौरान) आउटलायर.

आउटलायर डिटेक्शन के साथ कंट्रास्ट.

संख्या वाला डेटा

#fundamentals

सुविधाएं को पूर्णांक या असल वैल्यू वाली संख्याओं के तौर पर दिखाया जाता है. उदाहरण के लिए, हो सकता है कि घर का मूल्यांकन करने वाला मॉडल की वैल्यू दी जाएगी. प्रतिनिधित्व सुविधा के न्यूमेरिक डेटा से पता चलता है कि सुविधा की वैल्यू में लेबल के साथ गणितीय संबंध. इसका मतलब है कि एक घर में जितने वर्ग मीटर में काफ़ी जगह है घर की वैल्यू के साथ गणितीय संबंध.

सभी पूर्णांक डेटा को संख्या वाले डेटा के तौर पर नहीं दिखाया जाना चाहिए. उदाहरण के लिए, दुनिया के कुछ हिस्सों के पिन कोड पूर्णांक होते हैं; हालांकि, पूर्णांक पोस्टल मॉडल में कोड को संख्या वाले डेटा के तौर पर नहीं दिखाया जाना चाहिए. ऐसा इसलिए, क्योंकि 20000 का पिन कोड 10,000 रुपये से ज़्यादा है. इसके अलावा, हालांकि अलग-अलग पिन कोड do रियल एस्टेट मूल्य, हम नहीं मान सकते कि डाक कोड पर अचल संपत्ति के मूल्य पिन कोड 10000 में 20,000 की वैल्यू, रीयल एस्टेट की वैल्यू के मुकाबले दोगुनी होती है. पिन कोड को कैटगरी के हिसाब से डेटा के तौर पर दिखाया जाना चाहिए आज़माएं.

संख्यात्मक सुविधाओं को कभी-कभी कहा जाता है लगातार सुविधाएं इस्तेमाल करने की सुविधा.

NumPy

एक ओपन सोर्स मैथ लाइब्रेरी जो Python में कुशल अरे ऑपरेशन उपलब्ध कराती है. pandas को NumPy पर बनाया गया है.

O

कैंपेन का मकसद

वह मेट्रिक जिसे आपका एल्गोरिदम ऑप्टिमाइज़ करने की कोशिश कर रहा है.

मकसद फ़ंक्शन

गणित का वह फ़ॉर्मूला या मेट्रिक जिसे मॉडल ऑप्टिमाइज़ करना है. उदाहरण के लिए, आम तौर पर, लीनियर रिग्रेशन आम तौर पर होता है मीन स्क्वेयर्ड लॉस. इसलिए, जब किसी लीनियर रिग्रेशन मॉडल, ट्रेनिंग का मकसद मीन स्क्वेयर लॉस को कम करना है.

कुछ मामलों में, लक्ष्य मकसद फ़ंक्शन को बढ़ाना होता है. उदाहरण के लिए, अगर मकसद फ़ंक्शन सटीक है, तो लक्ष्य ज़्यादा सटीक बनाने के लिए.

नुकसान भी देखें.

तिरछी स्थिति

#df

डिसिज़न ट्री में, ऐसी स्थिति जिसमें एक से ज़्यादा चीज़ें शामिल हों सुविधा का इस्तेमाल करें. उदाहरण के लिए, अगर ऊंचाई और चौड़ाई दोनों सुविधाएं हैं, तो नीचे दी गई स्थिति तिरछी है:

  height > width

ऐक्सिस की अलाइन स्थिति के बीच कंट्रास्ट.

अॉफ़लाइन

#fundamentals

स्टैटिक के लिए समानार्थी.

ऑफ़लाइन अनुमान

#fundamentals

ऐसे मॉडल की प्रोसेस जो सुझावों का बैच जनरेट करती है और फिर उन अनुमानों को कैश मेमोरी (सेव करना) के लिए तैयार करना है. इसके बाद, ऐप्लिकेशन अनुमानित जानकारी को ऐक्सेस कर सकते हैं मॉडल को फिर से चलाने के बजाय कैश मेमोरी के अनुमान का इस्तेमाल करता है.

उदाहरण के लिए, स्थानीय मौसम के पूर्वानुमान जनरेट करने वाले मॉडल पर ध्यान देना (अनुमान) हर चार घंटे में एक बार. प्रत्येक मॉडल के चलने के बाद, सिस्टम सभी स्थानीय मौसम के पूर्वानुमान को कैश मेमोरी में सेव करता है. मौसम की जानकारी देने वाले ऐप्लिकेशन, पूर्वानुमान का डेटा उपलब्ध कराते हैं को कैश मेमोरी में सेव करता है.

ऑफ़लाइन अनुमान को स्टैटिक अनुमान भी कहा जाता है.

ऑनलाइन अनुमान से अंतर होना चाहिए.

वन-हॉट एन्कोडिंग

#fundamentals

कैटगरी वाले डेटा को वेक्टर के तौर पर दिखाना, जिसमें:

  • एक एलिमेंट 1 पर सेट है.
  • अन्य सभी एलिमेंट 0 पर सेट हैं.

वन-हॉट एन्कोडिंग का इस्तेमाल आम तौर पर उन स्ट्रिंग या आइडेंटिफ़ायर को दिखाने के लिए किया जाता है जो संभावित वैल्यू का सीमित सेट होता है. उदाहरण के लिए, मान लें कि Scandinavia की पांच संभावित वैल्यू हो सकती हैं:

  • "डेनमार्क"
  • "स्वीडन"
  • "नॉर्वे"
  • "फ़िनलैंड"
  • "आइसलैंड"

वन-हॉट एन्कोडिंग में इन दोनों वैल्यू को इस तरह दिखाया जा सकता है:

country वेक्टर
"डेनमार्क" 1 0 0 0 0
"स्वीडन" 0 1 0 0 0
"नॉर्वे" 0 0 1 0 0
"फ़िनलैंड" 0 0 0 1 0
"आइसलैंड" 0 0 0 0 1

वन-हॉट एन्कोडिंग की मदद से, मॉडल अलग-अलग कनेक्शन सीख सकता है हर पांच देश के हिसाब से तय किया गया है.

किसी सुविधा को संख्यात्मक डेटा के तौर पर दिखाना के बजाय वन-हॉट एन्कोडिंग का इस्तेमाल किया जाएगा. हमें खेद है कि वे अंकों के हिसाब से स्कैंडिनेवियन देशों का चुनाव नहीं होता. उदाहरण के लिए, नीचे दिए गए न्यूमेरिक निरूपण पर विचार करें:

  • "डेनमार्क" 0 है
  • "स्वीडन" 1 है
  • "नॉर्वे" 2 है
  • "फ़िनलैंड" 3 है
  • "आइसलैंड" 4 है

न्यूमेरिक एन्कोडिंग की मदद से, मॉडल रॉ संख्याओं को समझेगा गणित के सवाल हल करता है और उन संख्याओं के आधार पर ट्रेनिंग करने की कोशिश करता है. हालांकि, आइसलैंड वाकई में इसका दोगुना (या आधा) नहीं है यह मॉडल कुछ अजीब निष्कर्षों पर पहुंचा था.

वन-शॉट लर्निंग

मशीन लर्निंग का तरीका, जिसका इस्तेमाल अक्सर ऑब्जेक्ट की कैटगरी तय करने के लिए किया जाता है. इसे एक ही ट्रेनिंग के उदाहरण से, कैटगरी तय करने के असरदार तरीकों के बारे में बताया गया है.

कुछ मज़ेदार तरीके से सीखें और ज़ीरो-शॉट लर्निंग.

वन-शॉट प्रॉम्प्ट

#language
#generativeAI

एक ऐसा प्रॉम्प्ट जिसमें एक उदाहरण शामिल हो. इसमें बताया गया हो कि कैसे बड़े लैंग्वेज मॉडल का जवाब देना चाहिए. उदाहरण के लिए, नीचे दिए गए प्रॉम्प्ट में एक उदाहरण शामिल है. इसमें लार्ज लैंग्वेज मॉडल को दिखाया गया है कि इससे किसी क्वेरी का जवाब मिलना चाहिए.

एक प्रॉम्प्ट के हिस्से नोट
किसी चुने गए देश की आधिकारिक मुद्रा क्या है? वह सवाल जिसका जवाब एलएलएम से देना है.
फ़्रांस: EUR एक उदाहरण.
भारत: असल क्वेरी.

वन-शॉट प्रॉम्प्ट की तुलना नीचे दिए गए शब्दों से करें:

एक-बनाम-सभी

#fundamentals

N क्लास के साथ वर्गीकरण से जुड़ी समस्या को देखते हुए, N अलग से बना विलयन बाइनरी क्लासिफ़ायर—यह एक बाइनरी क्लासिफ़ायर होता है हर संभावित नतीजे की जानकारी दी जा सकती है. उदाहरण के लिए, उदाहरणों को वर्गीकृत करने वाला मॉडल दिया गया जानवर, सब्ज़ी या खनिज के रूप में, एक-बनाम सभी समाधान उपलब्ध ये तीन अलग-अलग बाइनरी क्लासिफ़ायर होते हैं:

  • जानवर है बनाम जानवर नहीं
  • सब्ज़ी बनाम सब्ज़ी नहीं
  • मिनरल बनाम मिनरल नहीं

online

#fundamentals

डाइनैमिक का समानार्थी शब्द.

ऑनलाइन अनुमान

#fundamentals

मांग पर अनुमान जनरेट करना. उदाहरण के लिए, मान लेते हैं कि कोई ऐप्लिकेशन किसी मॉडल को इनपुट देता है और सुझाव. ऑनलाइन अनुमान का इस्तेमाल करने वाला सिस्टम, अनुरोध का जवाब मॉडल (और ऐप्लिकेशन पर सुझाव लौटाना).

ऑफ़लाइन अनुमान से तुलना करें.

कार्रवाई (ऑप)

#TensorFlow

TensorFlow में, ऐसी कोई भी प्रोसेस जो Tensor में हेर-फेर करता है या उसे बंद कर देता है. इसके लिए उदाहरण के लिए, मैट्रिक्स गुणा वह संक्रिया होती है जिसमें दो टेन्सर को इनपुट के तौर पर एक Tensor जनरेट करता है और उसे आउटपुट के तौर पर जनरेट करता है.

ओटैक्स

JAX के लिए, ग्रेडिएंट प्रोसेसिंग और ऑप्टिमाइज़ेशन लाइब्रेरी. Optax ऐसी बिल्डिंग ब्लॉक उपलब्ध करवाकर रिसर्च में मदद करता है जो कस्टम तरीक़ों से फिर से जोड़ा जाना चाहिए, जैसे कि पैरामेट्रिक मॉडल डीप न्यूरल नेटवर्क चुनें. अन्य लक्ष्यों में ये शामिल हैं:

  • आसान, जांचे गए, और बेहतर तरीके से कुछ भी लागू करने के लिए, मुख्य कॉम्पोनेंट.
  • कम लेवल वाली सामग्री को एक साथ जोड़कर, प्रोडक्टिविटी को बेहतर बनाया जा सकता है कस्टम ऑप्टिमाइज़र (या अन्य ग्रेडिएंट प्रोसेसिंग कॉम्पोनेंट) में बदल सकते हैं.
  • सभी के लिए सीखने-सिखाने का तरीका आसान बनाकर नए आइडिया को अपनाने में तेज़ी लाना का इस्तेमाल करें.

ऑप्टिमाइज़र

ग्रेडिएंट डिसेंट को खास तौर पर लागू करना एल्गोरिदम. लोकप्रिय ऑप्टिमाइज़र में ये शामिल हैं:

  • AdaGrad, जिसका मतलब है, ADAptive GRADient ढलान.
  • एडम, जिसका पूरा नाम ADAptive with Momentum है.

आउट-ग्रुप एक ही तरह का भेदभाव

#fairness

ग्रुप के बाहर के सदस्यों को, ग्रुप में मौजूद सदस्यों की तुलना में ज़्यादा समान देखने की आदत व्यवहार, मूल्यों, व्यक्तित्व गुणों, और ऐसी अन्य चीज़ों की तुलना करते समय विशेषताएं. इन-ग्रुप का मतलब है, वे लोग जिनके साथ अक्सर बातचीत की जाती है; आउट-ग्रुप का मतलब है, ऐसे लोग जिनसे आपके नियमित तौर पर इंटरैक्ट नहीं किया जाता. अगर आपको लोगों से इस बारे में एट्रिब्यूट देने के लिए कहें और एक डेटासेट बनाएं आउट-ग्रुप हैं, तो उन विशेषताओं में ज़्यादा बारीक और ज़्यादा घिसी-पिटी सोच को शामिल किया जा सकता है उन एट्रिब्यूट को शामिल करें जिन्हें मीटिंग में हिस्सा लेने वाले अपने ग्रुप के लोगों को शामिल करते हैं.

उदाहरण के लिए, लिलीपुटियन, दूसरे लिलीपुटियन लोगों के घरों का ब्यौरा दे सकते हैं साथ ही, इसमें आर्किटेक्चर स्टाइल, विंडो, और दरवाज़े, और साइज़. हालांकि, यही लोग सिर्फ़ यह एलान कर सकते हैं कि ब्रोबडिंगनैजियन लोग एक जैसे घरों में रहते हैं.

आउट-ग्रुप एकरूपता पक्षपात एक ऐसा रूप है ग्रुप एट्रिब्यूशन बायस.

इन-ग्रुप बायस भी देखें.

आउटलायर डिटेक्शन

किसी विज्ञापन में आउटलायर की पहचान करने की प्रोसेस ट्रेनिंग सेट.

नई सुविधाओं की पहचान से कंट्रास्ट अलग होना चाहिए.

जिसकी परफ़ॉर्मेंस सामान्य से अलग रही

मान ज़्यादातर अन्य मानों से दूर हैं. मशीन लर्निंग में, इनमें से कोई भी ये आउटलायर हैं:

  • वह डेटा डालें जिसके मान करीब 3 मानक विचलनों से ज़्यादा हैं मीन से.
  • उच्च निरपेक्ष मान वाले भार.
  • अनुमानित वैल्यू, असल वैल्यू से ज़्यादा दूर होती हैं.

उदाहरण के लिए, मान लें कि widget-price किसी खास मॉडल की एक सुविधा है. मान लें कि औसत widget-price, मानक विचलन के साथ 7 यूरो है 1 यूरो का हो सकता है. 12 यूरो या 2 यूरो के widget-price के उदाहरण इसलिए, इसे आउटलायर माना जाएगा, क्योंकि इनमें से हर एक कीमत मीन से पांच मानक विचलन.

आउटलायर अक्सर टाइपिंग की गलतियां या इनपुट से जुड़ी अन्य गलतियों की वजह से होते हैं. अन्य मामलों में, आउटलायर कोई गलती नहीं होती; आखिरकार, पाँच मानक विचलनों की वैल्यू वे बहुत कम हैं, लेकिन नामुमकिन नहीं हैं.

आउटलायर की वजह से, मॉडल ट्रेनिंग में अक्सर समस्याएं आती हैं. क्लिपिंग आउटलेयर को मैनेज करने का एक तरीका है.

आउट-ऑफ़-बैग इवैलुएशन (ओओबी इवैलुएशन)

#df

ऐसे टूल की क्वालिटी का आकलन करने का तरीका डिसीज़न फ़ॉरेस्ट में उपलब्ध सभी पहलुओं को टेस्ट करें डिसिज़न ट्री का इस्तेमाल उदाहरण नहीं का उपयोग ट्रेनिंग. उदाहरण के लिए, नीचे दिए गए डायग्राम में, ध्यान दें कि सिस्टम हर डिसिज़न ट्री को ट्रेनिंग देता है करीब दो-तिहाई उदाहरणों पर आधारित होता है. इसके बाद, बाकी बचे एक-तिहाई उदाहरण.

डिसिज़न ट्री, जिसमें तीन डिसिज़न ट्री होते हैं.
          एक डिसिज़न ट्री, दो-तिहाई उदाहरणों के आधार पर ट्रेनिंग लेता है
          इसके बाद, बाकी के एक-तिहाई हिस्से का इस्तेमाल OOB के आकलन के लिए करता है.
          दूसरा डिसीज़न ट्री, दो-तिहाई लोगों के आधार पर
          और फिर पिछले डिसिज़न ट्री की तुलना में
          OOB मूल्यांकन के लिए एक-तिहाई का इस्तेमाल
          पिछला डिसिज़न ट्री.

आउट-ऑफ़-बैग इवैलुएशन, कंप्यूटेशनल तौर पर कुशल और कंज़र्वेटिव है क्रॉस-वैलिडेशन के तरीके का अनुमान. क्रॉस-वैलिडेशन के दौरान, क्रॉस-वैलिडेशन वाले हर राउंड के लिए एक मॉडल को ट्रेनिंग दी जाती है (उदाहरण के लिए, 10 मॉडल को 10-फ़ोल्ड क्रॉस-वैलिडेशन की ट्रेनिंग दी गई है). OOB के आकलन से एक मॉडल को ट्रेन किया जाता है. क्योंकि बैगिंग ट्रेनिंग के दौरान हर ट्री के कुछ डेटा को रोकता है, तो OOB इवैलुएशन का इस्तेमाल क्रॉस-वैलिडेशन के लिए उस डेटा का इस्तेमाल करें.

आउटपुट लेयर

#fundamentals

"फ़ाइनल" यह न्यूरल नेटवर्क की एक लेयर है. आउटपुट लेयर में अनुमान होता है.

नीचे दिए गए इलस्ट्रेशन में, इनपुट के साथ छोटा डीप न्यूरल नेटवर्क दिखाया गया है लेयर, दो छिपी हुई लेयर, और एक आउटपुट लेयर:

एक इनपुट लेयर, छिपी हुई दो लेयर, और एक लेयर वाला न्यूरल नेटवर्क
          आउटपुट लेयर. इनपुट लेयर में दो सुविधाएं होती हैं. पहला
          छिपी हुई लेयर में तीन न्यूरॉन और दूसरी छिपी हुई लेयर होती है
          इसमें दो न्यूरॉन होते हैं. आउटपुट लेयर में एक नोड होता है.

ओवरफ़िटिंग

#fundamentals

कोई मॉडल बनाना, जो ट्रेनिंग डेटा को इतना बारीकी से इकट्ठा किया जाता है कि मॉडल नए डेटा पर सही अनुमान लगा सकता है.

रेगुलराइज़ेशन की मदद से, ज़रूरत से ज़्यादा फ़िट बैठना कम हो सकता है. बड़े और अलग-अलग तरह के ट्रेनिंग सेट पर ट्रेनिंग से भी ओवरफ़िटिंग को कम किया जा सकता है.

ओवरसैंपलिंग

किसी अल्पसंख्यक वर्ग के उदाहरणों का फिर से इस्तेमाल करना क्लास-असंतुलित डेटासेट में मौजूद होना चाहिए, इससे बेहतर ट्रेनिंग सेट बनाया जा सकता है.

उदाहरण के लिए, बाइनरी क्लासिफ़िकेशन का इस्तेमाल करें जिसमें मैजरिटी क्लास और अल्पसंख्यक वर्ग 5,000:1 है. यदि डेटासेट में दस लाख उदाहरण हैं, तो डेटासेट में अल्पसंख्यक वर्ग के सिर्फ़ 200 उदाहरण हैं, जो असरदार ट्रेनिंग के लिए बहुत कम उदाहरण हों. इस कमी से निपटने के लिए, उन 200 उदाहरणों को कई बार ज़रूरत से ज़्यादा सैंपल (फिर से इस्तेमाल) कर सकता है. उपयोगी प्रशिक्षण के लिए काफ़ी उदाहरण हों.

आपको ओवरफ़िटिंग से ज़्यादा सावधान रहना होगा सैंपल इकट्ठा करना.

अंडरसैंपलिंग से कंट्रास्ट अलग करें.

P

पैक किया गया डेटा

डेटा को ज़्यादा बेहतर तरीके से सेव करने का तरीका.

पैक किया गया डेटा, कंप्रेस किए गए फ़ॉर्मैट का इस्तेमाल करके या . पैक किया गया डेटा, मेमोरी और कंप्यूटेशन की ज़रूरत को कम करता है इससे आपको तेज़ ट्रेनिंग मिलेगी. साथ ही, मॉडल का अनुमान आसानी से लगाया जा सकेगा.

पैक किए गए डेटा का इस्तेमाल अक्सर अन्य तकनीकों के साथ किया जाता है, जैसे कि डेटा को बेहतर बनाने की सुविधा और रेगुलराइज़ेशन, जिससे परफ़ॉर्मेंस बेहतर होगी मॉडल.

पांडा

#fundamentals

numpy पर ऊपर बना कॉलम-ओरिएंटेड डेटा विश्लेषण एपीआई. कई मशीन लर्निंग फ़्रेमवर्क, इसमें TensorFlow भी शामिल है. यह इनपुट के तौर पर पांडा के डेटा स्ट्रक्चर का इस्तेमाल करता है. ज़्यादा जानकारी के लिए, pandas के दस्तावेज़ देखें.

पैरामीटर

#fundamentals

ऐसे वज़न और बायस जिन्हें मॉडल, ट्रेनिंग. उदाहरण के लिए, लीनियर रिग्रेशन मॉडल के पैरामीटर में, बायस (b) और सभी वेट (w1, w2, और इसी तरह से) के विकल्प नीचे दिए गए फ़ॉर्मैट में देखें:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

वहीं दूसरी ओर, हाइपर पैरामीटर वे वैल्यू होती हैं जिन्हें you (या हाइपर पैरामीटर ट्यूनिंग सेवा) का इस्तेमाल मॉडल के लिए किया जाता है. उदाहरण के लिए, लर्निंग रेट हाइपर पैरामीटर है.

पैरामीटर-कुशल ट्यूनिंग

#language
#generativeAI

बड़े पैमाने पर बेहतर तकनीकों का सेट प्री-ट्रेन्ड लैंग्वेज मॉडल (पीएलएम) ज़्यादा बेहतर तरीके से काम करती है. फ़ाइन-ट्यूनिंग का इस्तेमाल करती है. पैरामीटर-कुशल आम तौर पर, ट्यूनिंग पूरे डेटा के मुकाबले काफ़ी कम पैरामीटर होते हैं लेकिन आम तौर पर, बड़ा लैंग्वेज मॉडल, जो या करीब-करीब पूरे डेटा से बना एक बड़ा लैंग्वेज मॉडल भी फ़ाइन-ट्यून.

पैरामीटर-कुशल ट्यूनिंग की इनके साथ तुलना करें:

पैरामीटर-कुशल ट्यूनिंग को पैरामीटर-कुशल फ़ाइन-ट्यूनिंग भी कहा जाता है.

पैरामीटर सर्वर (PS)

#TensorFlow

ऐसा जॉब जो किसी मॉडल के पैरामीटर को ट्रैक करता है डिस्ट्रिब्यूटेड सेटिंग में बदल जाएगा.

पैरामीटर में अपडेट

किसी मॉडल के पैरामीटर को अडजस्ट करने की प्रोसेस की ट्रेनिंग दी जा रही है. आम तौर पर, ऐसा सिर्फ़ एक बार किया जा सकता है ग्रेडिएंट डिसेंट.

आंशिक तौर पर डेरिवेटिव

ऐसा डेरिवेटिव, जिसमें एक वैरिएबल को छोड़कर बाकी सभी वैरिएबल को कॉन्स्टेंट माना जाता है. उदाहरण के लिए, x के हिसाब से f(x, y) का आंशिक डेरिवेटिव f का अवकलज (डिफरेंशिएट) माना जाता है जिसे अकेले x का फ़ंक्शन माना जाता है (यानी, y बनाए रखना) स्थिरांक). x के हिसाब से f का आंशिक डेरिवेटिव सिर्फ़ इस पर फ़ोकस करता है कैसे x बदल रहा है और समीकरण के अन्य सभी वैरिएबल को अनदेखा कर देता है.

पार्टिसिपेशन बायस

#fairness

गैर-प्रतिक्रिया पूर्वाग्रह के लिए समानार्थी. चुनाव के मापदंड देखें.

बंटवारे की रणनीति

वह एल्गोरिदम जिससे वैरिएबल को भाग दिया जाता है पैरामीटर सर्वर.

Pax

बड़े पैमाने पर ट्रेनिंग देने के लिए डिज़ाइन किया गया प्रोग्रामिंग फ़्रेमवर्क न्यूरल नेटवर्क मॉडल इतना बड़ा कि वे कई TPU का इस्तेमाल करते हैं ऐक्सेलरेटर चिप स्लाइस या पॉड.

Pax को Flax पर बनाया गया है. इसे JAX पर बनाया गया है.

सॉफ़्टवेयर स्टैक में पैक्स की स्थिति दिखाने वाला डायग्राम.
          पैक्स को JAX के ऊपर बनाया गया है. पैक्स में तीन
          लेयर. सबसे नीचे वाली लेयर में TensorStore और Flax शामिल हैं.
          बीच वाली लेयर में Optax और Flaxformer शामिल हैं. सबसे ऊपर
          लेयर में Praxis मॉडलिंग लाइब्रेरी शामिल है. फिडल बन गया है
          की शुरुआत हुई.

पर्सेप्ट्रॉन

एक ऐसा सिस्टम (हार्डवेयर या सॉफ़्टवेयर) जो एक या उससे ज़्यादा इनपुट वैल्यू लेता है, इनपुट के भारित योग पर फ़ंक्शन चलाता है और एक आउटपुट वैल्यू. मशीन लर्निंग में, फ़ंक्शन आम तौर पर नॉनलीनियर होता है, जैसे कि ReLU, sigmoid या tanh. उदाहरण के लिए, नीचे दिया गया पर्सेप्ट्रॉन, प्रोसेस करने के लिए सिगमॉइड फ़ंक्शन का इस्तेमाल करता है तीन इनपुट वैल्यू:

$$f(x_1, x_2, x_3) = \text{sigmoid}(w_1 x_1 + w_2 x_2 + w_3 x_3)$$

नीचे दिए गए उदाहरण में, पर्सेप्शन को तीन इनपुट के बारे में बताया गया है. हर इनपुट में पर्सेप्ट्रॉन में जाने से पहले, एक वज़न के ज़रिए खुद में बदलाव किया जाता है:

ऐसा पर्सेप्ट्रन जिसमें तीन इनपुट होते हैं, जिनमें से हर एक को अलग-अलग गुणा किया जाता है
          वज़न. पर्सेप्ट्रॉन से एक वैल्यू मिलती है.

पर्सेप्ट्रॉन यहां के न्यूरॉन हैं न्यूरल नेटवर्क.

प्रदर्शन

ओवरलोडेड टर्म जिसका ये मतलब है:

  • सॉफ़्टवेयर इंजीनियरिंग में स्टैंडर्ड का मतलब. नाम: कितनी तेज़ी से क्या यह सॉफ़्टवेयर (या बेहतर तरीके से) काम करता है?
  • मशीन लर्निंग का मतलब. पेश है, परफ़ॉर्मेंस नीचे दिया गया सवाल: यह मॉडल कितना सही है? इसका मतलब है कि मॉडल का अनुमान कितना अच्छा है?

परम्यूटेशन वैरिएबल का महत्व

#df

एक टाइप वैरिएबल की अहमियत, जो आकलन करता है को अनुमति देने के बाद, मॉडल की अनुमान गड़बड़ी में बढ़ोतरी सुविधा के मान. क्रमचय वैरिएबल का महत्व, मॉडल-इंडिपेंडेंट है मेट्रिक के हिसाब से फ़िल्टर करें.

हैरानी

एक तरीका, जिससे पता चलता है कि कोई मॉडल अपना टास्क कितनी अच्छी तरह पूरा कर रहा है. उदाहरण के लिए, मान लें कि आपका टास्क किसी शब्द के पहले कुछ अक्षर पढ़ना है जब कोई उपयोगकर्ता फ़ोन के कीबोर्ड पर टाइप कर रहा है और संभावित ग्राहकों की सूची पूरा होने वाले शब्द. इस टास्क के लिए, हैरानी की संख्या करीब-करीब संख्या है. अनुमान लगाने के लिए आप अपनी सूची में वह शब्द जिसे उपयोगकर्ता टाइप करना चाहता है.

किसी समस्या को क्रॉस-एंट्रॉपी से इस तरह से जोड़ा जा सकता है:

$$P= 2^{-\text{cross entropy}}$$

पाइपलाइन

मशीन लर्निंग एल्गोरिदम से जुड़ा इंफ़्रास्ट्रक्चर. पाइपलाइन जैसे, डेटा इकट्ठा करना, उसे ट्रेनिंग वाली डेटा फ़ाइलों में रखना, एक या ज़्यादा मॉडल को ट्रेनिंग देना, और मॉडल को प्रोडक्शन में एक्सपोर्ट करना.

पाइपलाइनिंग

#language

मॉडल पैरलिज़्म का एक फ़ॉर्म, जिसमें मॉडल प्रोसेसिंग को लगातार अलग-अलग चरणों में बांटा जाता है और हर चरण पूरा किया जाता है किसी अन्य डिवाइस पर इंस्टॉल करें. जब कोई चरण एक बैच को प्रोसेस कर रहा होता है, तो उसके पहले वाले बैच को प्रोसेस किया जाता है स्टेज अगले बैच पर काम कर सकता है.

स्टेज की गई ट्रेनिंग भी देखें.

पिजित

यह JAX फ़ंक्शन है, जो कोड को कई हिस्सों में चलाने के लिए बांटता है ऐक्सेलरेटर चिप. उपयोगकर्ता एक फ़ंक्शन pjit को पास करता है, जो ऐसा फ़ंक्शन दिखाता है जिसमें एक जैसे सिमैंटिक होते हैं, लेकिन उसे कंपाइल किया जाता है XLA की कंप्यूटेशन की मदद से कंप्यूट किया जाता है, जो कई डिवाइसों पर चलता है (जैसे कि जीपीयू या TPU कोर).

pjit की मदद से लोग, कंप्यूटेशन को फिर से लिखे बिना ही शार्ड कर सकते हैं. इसके लिए, SPMD पार्टीशनर.

मार्च 2023 तक, pjit को jit के साथ मर्ज कर दिया गया है. इससे संदर्भ लें डिस्ट्रिब्यूटेड अरे और ऑटोमैटिक साथ-साथ लोड होना देखें.

PLM

#language
#generativeAI

पहले से ट्रेन की गई भाषा के मॉडल का छोटा नाम.

पीमैप

JAX फ़ंक्शन, जो किसी इनपुट फ़ंक्शन की कॉपी चलाता है एक से ज़्यादा हार्डवेयर डिवाइसों पर इस्तेमाल कर सकते हैं. (सीपीयू, जीपीयू या TPU). इनमें अलग-अलग इनपुट वैल्यू शामिल हैं. pmap, SPMD पर निर्भर करता है.

policy

#rl

रीइन्फ़ोर्समेंट लर्निंग में, एजेंट की प्रॉबेब्लिस्टिक मैपिंग राज्यों से कार्रवाई तक.

पूल करना

#image

पहले बनाए गए आव्यूहों (या आव्यूहों) को कम करना छोटे मैट्रिक्स पर कॉन्वोलूशन लेयर. आम तौर पर, पूल करने के लिए सबसे ज़्यादा या औसत वैल्यू का इस्तेमाल किया जाता है पूल किए गए हिस्से में. उदाहरण के लिए, मान लें कि हमारे पास 3x3 मैट्रिक्स के बाद:

3x3 मैट्रिक्स [[5,3,1], [8,2,5], [9,4,3].

कॉन्वोलूशनल ऑपरेशन की तरह ही पूलिंग ऑपरेशन भी, आव्यूह को स्लाइस में बदलें और फिर कॉन्वलूशनल ऑपरेशन को इसके हिसाब से स्लाइड करें कदम. उदाहरण के लिए, मान लें कि पूलिंग ऑपरेशन कॉन्वोलूशनल मैट्रिक्स को 1x1 की चाल के साथ 2x2 स्लाइस में बांटता है. जैसा कि नीचे दिया गया डायग्राम दिखाया गया है, पूलिंग के चार ऑपरेशन होते हैं. मान लें कि पूलिंग की हर कार्रवाई में, चार:

इनपुट मैट्रिक्स 3x3 है, जिसमें ये वैल्यू हैं: [[5,3,1], [8,2,5], [9,4,3]].
          इनपुट मैट्रिक्स का सबसे ऊपर बाईं ओर मौजूद 2x2 सबमैट्रिक्स [[5,3], [8,2]] है, इसलिए
          सबसे ऊपर बाईं ओर मौजूद पूलिंग कार्रवाई करने पर, वैल्यू 8 मिलती है (जो कि
          ज़्यादा से ज़्यादा 5, 3, 8, और 2). इनपुट का सबसे ऊपर दाईं ओर मौजूद 2x2 सबमैट्रिक्स
          मैट्रिक्स [[3,1], [2,5]] है. इसलिए, सबसे ऊपर दाईं ओर मौजूद पूलिंग ऑपरेशन के नतीजे मिलेंगे
          वैल्यू 5 है. इनपुट मैट्रिक्स का सबसे नीचे वाला बायां 2x2 सबमैट्रिक्स यह है
          [[8,2], [9,4]] इसलिए, सबसे नीचे बाईं ओर वाली पूलिंग कार्रवाई से वैल्यू मिलती है
          9. इनपुट मैट्रिक्स का सबसे नीचे दाईं ओर मौजूद 2x2 सबमैट्रिक्स यह है
          [[2,5], [4,3]], इसलिए सबसे नीचे दाईं ओर की पूलिंग कार्रवाई से वैल्यू मिलती है
          5. कुल मिलाकर, पूल करने की कार्रवाई से 2x2 मैट्रिक्स मिलता है
          [[8,5], [9,5].

पूलिंग की मदद से, इनपुट मैट्रिक्स में ट्रांसलेशनल इन्वैरिएंस.

दृष्टि ऐप्लिकेशन के लिए पूलिंग को औपचारिक तौर पर स्पेशल पूलिंग कहा जाता है. टाइम सीरीज़ वाले ऐप्लिकेशन में, पूलिंग को टेंपोरल पूलिंग कहा जाता है. पूलिंग को अक्सर सबसैंपलिंग या डाउनसैंपलिंग कहा जाता है.

पोज़िशनल एन्कोडिंग

#language

किसी क्रम में टोकन की रैंक के बारे में जानकारी जोड़ने की तकनीक टोकन को एम्बेड करना. ट्रांसफ़ॉर्मर मॉडल पोज़िशनल का इस्तेमाल करते हैं के विभिन्न भागों के बीच के संबंध को बेहतर ढंग से समझने के लिए एन्कोडिंग क्रम.

पोज़िशनल एन्कोडिंग को आम तौर पर लागू करने के लिए, साइनसोइडल फ़ंक्शन का इस्तेमाल किया जाता है. (खास तौर पर, साइनसोइडल फ़ंक्शन की फ़्रीक्वेंसी और डाइमेंशन क्रम में टोकन की पोज़िशन से तय होता है.) इस तकनीक की मदद से, ट्रांसफ़ॉर्मर मॉडल को स्कूल के अलग-अलग हिस्सों में मौजूद क्रम में दिखाया जाएगा.

पॉज़िटिव क्लास

#fundamentals

वह क्लास जिसकी जांच की जा रही है.

उदाहरण के लिए, कैंसर मॉडल में पॉज़िटिव क्लास "ट्यूमर" हो सकती है. ईमेल की कैटगरी तय करने वाली सुविधा का पॉज़िटिव क्लास "स्पैम" हो सकता है.

नेगेटिव क्लास से उलट जानकारी दें.

पोस्ट-प्रोसेस

#fairness
#fundamentals

मॉडल चलने के बाद, मॉडल के आउटपुट में बदलाव करना. पोस्ट-प्रोसेसिंग का इस्तेमाल, निष्पक्षता से जुड़ी पाबंदियों को लागू करने के लिए किया जा सकता है. मॉडल में बदलाव करती हैं.

उदाहरण के लिए, बाइनरी क्लासिफ़ायर पर पोस्ट-प्रोसेसिंग लागू की जा सकती है और तय की गई कैटगरी में रखने के लिए, अवसर की समानता बनी रहती है कुछ एट्रिब्यूट के लिए, सही पॉज़िटिव रेट की जांच करें इस एट्रिब्यूट की सभी वैल्यू एक जैसी होती हैं.

PR AUC (पीआर कर्व के तहत का क्षेत्र)

इंटरपोलेट किए गए के अंदर का क्षेत्र प्रीसिज़न-रीकॉल कर्व, जिसे प्लॉट करके कैलकुलेट किया जाता है (याद रखें, सटीक) मान की अलग-अलग वैल्यू के लिए क्लासिफ़िकेशन थ्रेशोल्ड. इसके तरीके के आधार पर इसका आकलन किया जाता है, तो PR AUC औसत सटीक.

Praxis

Pax की मुख्य और बेहतर परफ़ॉर्मेंस वाली एमएल लाइब्रेरी. आम तौर पर, जिसे "लेयर लाइब्रेरी" कहते हैं.

Praxis में सिर्फ़ लेयर क्लास की परिभाषाएं ही नहीं होती, बल्कि ज़्यादातर साथ ही, इसमें ये कॉम्पोनेंट शामिल हैं:

Praxis से मॉडल क्लास की परिभाषाएं मिलती हैं.

प्रीसिज़न

क्लासिफ़िकेशन मॉडल के लिए मेट्रिक, जो जवाब देती है नीचे दिया गया सवाल:

जब मॉडल ने पॉज़िटिव क्लास का अनुमान लगाया हो, कितने प्रतिशत अनुमान सही थे?

इसका फ़ॉर्मूला यहां दिया गया है:

$$\text{Precision} = \frac{\text{true positives}} {\text{true positives} + \text{false positives}}$$

कहां:

  • सही पॉज़िटिव का मतलब है कि मॉडल ने पॉज़िटिव क्लास का सही अनुमान लगाया है.
  • फ़ॉल्स पॉज़िटिव का मतलब है कि मॉडल ने गलती से पॉज़िटिव क्लास का अनुमान लगाया था.

उदाहरण के लिए, मान लें कि किसी मॉडल ने 200 सकारात्मक अनुमान लगाए. इन 200 सकारात्मक अनुमानों में से:

  • 150 ट्रू पॉज़िटिव थे.
  • 50 जवाब फ़ॉल्स पॉज़िटिव थे.

इस मामले में:

$$\text{Precision} = \frac{\text{150}} {\text{150} + \text{50}} = 0.75$$

सटीक होने और याद रखने के बीच अंतर करें.

कैटगरी तय करना: सटीक होना, बाज़ार से हटाना, सटीक और संबंधित मेट्रिक हमारा वीडियो देखें.

प्रिसिज़न-रीकॉल कर्व

प्रीसिज़न बनाम रीकॉल का कर्व क्लासिफ़िकेशन के थ्रेशोल्ड.

अनुमान

#fundamentals

किसी मॉडल का आउटपुट. उदाहरण के लिए:

  • बाइनरी क्लासिफ़िकेशन मॉडल का अनुमान, या तो पॉज़िटिव होता है क्लास या नेगेटिव क्लास.
  • मल्टी-क्लास क्लासिफ़िकेशन मॉडल का अनुमान एक क्लास है.
  • लीनियर रिग्रेशन मॉडल का अनुमान एक संख्या होती है.

प्रिडिक्शन बायस

वह मान जो दिखाता है कि औसत अनुमान, लेबल के औसत से मिलते हैं डेटासेट में शामिल है.

मशीन लर्निंग मॉडल में इसे बायस टर्म न समझें या नैतिकता और निष्पक्षता में पक्षपात हो.

अनुमानित एमएल

कोई भी स्टैंडर्ड ("क्लासिक") मशीन लर्निंग सिस्टम.

अनुमानित ML शब्द की कोई औपचारिक परिभाषा नहीं है. इसके बजाय, यह शब्द एमएल सिस्टम की ऐसी कैटगरी को अलग करता है जो इन पर आधारित नहीं है जनरेटिव एआई.

अनुमानित समानता

#fairness

एक फ़ेयरनेस मेट्रिक, जो यह जांचती है कि क्या, सेट करने के लिए, सटीक दरें मिलती हैं सबग्रुप के लिए बराबर हैं.

उदाहरण के लिए, कोई मॉडल यह अनुमान लगाता है कि कॉलेज में राष्ट्रीयता की अनुमानित समानता, अगर इसकी सटीक दर एक जैसी है की पेशकश की.

अनुमानित समानता को कभी-कभी अनुमानित दर की समानता भी कहा जाता है.

"निष्पक्षता की परिभाषाएं पूरी जानकारी दी गई" (सेक्शन 3.2.1) का इस्तेमाल करें.

अनुमानित दर की समानता

#fairness

अनुमानित समानता का एक और नाम.

प्री-प्रोसेसिंग

#fairness
मॉडल को ट्रेनिंग देने के लिए, डेटा का इस्तेमाल किए जाने से पहले उसे प्रोसेस करना. प्री-प्रोसेसिंग यह हो सकी शब्दों के संग्रह से उन शब्दों को निकालना जितना आसान है जो अंग्रेज़ी शब्दकोश में आते हैं या किसी शब्द को नए सिरे से लिखने जितना मुश्किल हो सकते हैं डेटा पॉइंट को इस तरह से सेट करते हैं कि वे एक-दूसरे से जुड़े हुए कई एट्रिब्यूट हटा देते हैं संवेदनशील एट्रिब्यूट का इस्तेमाल करें. प्री-प्रोसेसिंग से, फ़ेयरनेस कंस्ट्रेंट को पूरा करने में मदद मिल सकती है.

पहले से ट्रेन किया गया मॉडल

#language
#image
#generativeAI

मॉडल या मॉडल कॉम्पोनेंट (जैसे, एम्बेडिंग वेक्टर) भेजना होगा, जिसे पहले ही ट्रेनिंग दी जा चुकी है. कभी-कभी, आप पहले से ट्रेन किए गए एम्बेडिंग वेक्टर को न्यूरल नेटवर्क का इस्तेमाल करें. अन्य मामलों में, आपका मॉडल वेक्टर खुद ही एम्बेड हो जाता है, न कि वह पहले से ट्रेन की गई एम्बेडिंग पर निर्भर रहता है.

प्री-ट्रेन्ड लैंग्वेज मॉडल शब्द का मतलब बड़ा लैंग्वेज मॉडल, जो अब इस्तेमाल किया जा चुका है प्री-ट्रेनिंग.

प्री-ट्रेनिंग

#language
#image
#generativeAI

एक बड़े डेटासेट पर मॉडल की शुरुआती ट्रेनिंग. कुछ ऐसे मॉडल जिन्हें पहले से ट्रेनिंग दी गई है अनाड़ी दिग्गज होते हैं और उन्हें आम तौर पर अतिरिक्त ट्रेनिंग की ज़रूरत होती है. उदाहरण के लिए, मशीन लर्निंग के विशेषज्ञ बड़े टेक्स्ट डेटासेट पर, बड़ा लैंग्वेज मॉडल, जैसे कि विकिपीडिया के सभी अंग्रेज़ी पेज. प्री-ट्रेनिंग के बाद, आगे दिए गए विकल्पों में से किसी का इस्तेमाल करके, मॉडल को बेहतर बनाया जा सकता है तकनीकें:

पहले से मौजूद भरोसा

डेटा की ट्रेनिंग शुरू करने से पहले, उसके बारे में आपकी क्या राय है. उदाहरण के लिए, L2 रेगुलराइज़ेशन इन चीज़ों पर निर्भर करता है इस बात को पहले से मान लें कि वज़न छोटा और सामान्य होना चाहिए शून्य के आस-पास वितरित होता है.

प्रॉबेब्लिस्टिक रिग्रेशन मॉडल

ऐसा रिग्रेशन मॉडल जो न सिर्फ़ हर सुविधा के लिए वज़न, लेकिन अनिश्चितता को कम नहीं किया जा सकता. प्रॉबेब्लिस्टिक रिग्रेशन मॉडल जनरेट करता है और उस अनुमान की अनिश्चितता होती है. उदाहरण के लिए, प्रॉबेब्लिस्टिक रिग्रेशन मॉडल, 325 वैल्यू का अनुमान लगा सकता है. 12 का मानक विचलन. प्रॉबेब्लिस्टिक रिग्रेशन के बारे में ज़्यादा जानकारी मॉडल की तरह, Colab को इस डिवाइस पर देखें tensorflow.org.

प्रोबैबिलिटी डेंसिटी फ़ंक्शन

यह फ़ंक्शन उन डेटा सैंपल की फ़्रीक्वेंसी की पहचान करता है जिनमें बिलकुल तय करें. जब किसी डेटासेट की वैल्यू, लगातार फ़्लोटिंग-पॉइंट होती हैं तो सटीक मिलान बहुत कम ही होते हैं. हालांकि, प्रॉबबिलिटी को इंटिग्रेट करना x से मान y तक की सघनता फ़ंक्शन से, इतनी बार की फ़्रीक्वेंसी मिलती है x और y के बीच के डेटा के सैंपल.

उदाहरण के लिए, ऐसा सामान्य डिस्ट्रिब्यूशन लें जिसका माध्य 200 और 30 का मानक विचलन. डेटा सैंपल की अनुमानित फ़्रीक्वेंसी तय करने के लिए 211.4 से 218.7 की रेंज में आने पर, प्रॉबबिलिटी को इंटिग्रेट किया जा सकता है 211.4 से 218.7 तक के सामान्य डिस्ट्रिब्यूशन के लिए डेंसिटी फ़ंक्शन.

मैसेज

#language
#generativeAI

बड़े लैंग्वेज मॉडल के इनपुट के तौर पर डाला गया कोई भी टेक्स्ट का इस्तेमाल करें. प्रॉम्प्ट इतने छोटे हो सकते हैं वाक्यांश या फिर मनचाहे तरीके से लंबा पासवर्ड डालें. उदाहरण के लिए, किसी उपन्यास का पूरा टेक्स्ट. प्रॉम्प्ट कई कैटगरी में आते हैं. इनमें, इस टेबल में दी गई कैटगरी भी शामिल हैं:

प्रॉम्प्ट की कैटगरी उदाहरण नोट
सवाल कबूतर कितनी तेज़ी से उड़ सकता है?
निर्देश आर्बिट्रेज के बारे में एक मज़ेदार कविता लिखें. ऐसा प्रॉम्प्ट जिसमें बड़े लैंग्वेज मॉडल को कुछ करने के लिए कहा जाता है.
उदाहरण मार्कडाउन कोड का अनुवाद एचटीएमएल में करें. जैसे:
अभी तक किसी भी व्यक्ति ने चेक इन नहीं किया है मार्कडाउन: * सूची आइटम
अभी तक किसी भी व्यक्ति ने चेक इन नहीं किया है एचटीएमएल: <ul> <li>आइटम की सूची बनाएं</li> &lt;/ul&gt;
इस उदाहरण में पहला वाक्य एक निर्देश है. प्रॉम्प्ट का बाकी हिस्सा, उदाहरण के तौर पर दिया गया है.
भूमिका यह बताना कि मशीन लर्निंग ट्रेनिंग में, ग्रेडिएंट डिसेंट का इस्तेमाल क्यों होता है आपने फ़िज़िक्स में पीएचडी की डिग्री ली है. वाक्य का पहला हिस्सा एक निर्देश है; वाक्यांश "फ़िज़िक्स में पीएचडी की डिग्री हासिल की" भूमिका वाला हिस्सा है.
मॉडल को पूरा करने के लिए इनपुट का कुछ हिस्सा यूनाइटेड किंगडम के प्रधानमंत्री यहां रहते हैं पार्शियल इनपुट प्रॉम्प्ट या तो अचानक खत्म हो सकता है (जैसा कि इस उदाहरण में दिखाया गया है) या अंडरस्कोर पर खत्म होता है.

जनरेटिव एआई मॉडल, किसी सवाल का जवाब, टेक्स्ट के ज़रिए दे सकता है. कोड, इमेज, एम्बेड करना, वीडियो...बहुत कुछ.

प्रॉम्प्ट के आधार पर सीखने की सुविधा

#language
#generativeAI

कुछ खास मॉडल की क्षमता, जो उन्हें किसी खास प्रॉडक्ट के हिसाब से ढलने में मदद करते हैं आर्बिट्रेरी टेक्स्ट इनपुट (प्रॉम्प्ट) के जवाब में उनका व्यवहार. प्रॉम्प्ट पर आधारित सीखने के एक आम मॉडल में, बड़े लैंग्वेज मॉडल के जवाब में, टेक्स्ट जनरेट कर रहा है. उदाहरण के लिए, मान लें कि कोई उपयोगकर्ता यह प्रॉम्प्ट डालता है:

न्यूटन के गति के तीसरे नियम का सारांश लिखें.

प्रॉम्प्ट के आधार पर सीखने में मदद करने वाले मॉडल को, जवाब देने के लिए ख़ास तौर पर ट्रेनिंग नहीं दी गई है पिछला प्रॉम्प्ट. इसके बजाय, मॉडल "जानता है" भौतिक विज्ञान के बारे में भाषा के सामान्य नियमों की जानकारी दी गई हो और उन चीज़ों के बारे में ज़्यादा जानकारी दी गई हो जिनमें सामान्य तौर पर उपयोगी जवाब. यह जानकारी (उम्मीद है कि) उपयोगी जानकारी देने के लिए काफ़ी है जवाब. लोगों से मिला अन्य सुझाव, जैसे कि "यह जवाब काफ़ी मुश्किल था." या "प्रतिक्रिया क्या होती है?"), प्रॉम्प्ट पर आधारित कुछ लर्निंग सिस्टम और उनके जवाबों को ज़्यादा काम का बनाया जा सके.

प्रॉम्प्ट डिज़ाइन

#language
#generativeAI

प्रॉम्प्ट इंजीनियरिंग का समानार्थी शब्द.

प्रॉम्प्ट इंजीनियरिंग

#language
#generativeAI

मनचाहा जवाब पाने वाले प्रॉम्प्ट बनाने की कला बड़े लैंग्वेज मॉडल से लिया गया है. प्रॉम्प्ट की कार्रवाई करते हुए इंसान इंजीनियरिंग. अच्छी तरह से स्ट्रक्चर किए गए प्रॉम्प्ट लिखना, यह पक्का करने का एक अहम हिस्सा है लार्ज लैंग्वेज मॉडल से काम के जवाब पाएँ. प्रॉम्प्ट इंजीनियरिंग इन चीज़ों पर निर्भर करती है कई बातों पर निर्भर करता है, जिनमें ये शामिल हैं:

  • वह डेटासेट जिसका इस्तेमाल प्री-ट्रेन करने के लिए किया गया था और हो सकता है कि बड़े लैंग्वेज मॉडल को बेहतर बनाएं.
  • तापमान और डिकोड करने के दूसरे पैरामीटर मॉडल, जवाब जनरेट करने के लिए इस्तेमाल करता है.

यहां जाएं: प्रॉम्प्ट के डिज़ाइन के बारे में जानकारी देखें.

प्रॉम्प्ट डिज़ाइन, प्रॉम्प्ट इंजीनियरिंग का एक समानार्थी शब्द है.

प्रॉम्प्ट ट्यूनिंग

#language
#generativeAI

पैरामीटर की बेहतर ट्यूनिंग का तरीका जो "प्रीफ़िक्स" का इस्तेमाल करता है लागू होने के बाद, सिस्टम असल प्रॉम्प्ट.

प्रॉम्प्ट ट्यूनिंग के एक वैरिएशन को प्रीफ़िक्स ट्यूनिंग भी कहा जाता है. हर लेयर में प्रीफ़िक्स जोड़ें. इसके उलट, ज़्यादातर प्रॉम्प्ट ट्यूनिंग इनपुट लेयर में प्रीफ़िक्स जोड़ता है.

प्रॉक्सी लेबल

#fundamentals

ऐसे लेबल का अनुमान लगाने के लिए इस्तेमाल किया जाने वाला डेटा जो डेटासेट में सीधे तौर पर उपलब्ध नहीं हैं.

उदाहरण के लिए, मान लें कि आपको एक मॉडल को कर्मचारी का अनुमान लगाने के लिए ट्रेनिंग देनी होगी तनाव का स्तर. आपके डेटासेट में अनुमान लगाने वाली कई सुविधाएं हैं, लेकिन उसमें तनाव का स्तर नाम का लेबल नहीं होता. चिंता न करें, आपने "दफ़्तर में होने वाली दुर्घटनाएं" चुनी हैं के लिए प्रॉक्सी लेबल के रूप में तनाव का स्तर. आख़िरकार, जो कर्मचारी बहुत ज़्यादा तनाव में होते हैं वे झटके लगने लगते हैं शांत कर्मचारियों की तुलना में दुर्घटनाएं. या वे ऐसा करते हैं? शायद ऑफ़िस में दुर्घटनाएं हुई हों बढ़ोतरी और गिरावट कई वजहों से हुई है.

दूसरे उदाहरण के तौर पर, मान लीजिए कि क्या बारिश हो रही है? को बूलियन लेबल बनाना है सकता है, लेकिन आपके डेटासेट में बारिश का डेटा नहीं है. अगर आपने तस्वीरें उपलब्ध हैं, तो आप लोगों की तस्वीरें लगा सकते हैं क्या बारिश हो रही है? के लिए प्रॉक्सी लेबल के रूप में छाते ले जाना क्या यह एक अच्छा प्रॉक्सी लेबल है? शायद, लेकिन कुछ संस्कृतियों में लोग बारिश के मुकाबले धूप से सुरक्षा के लिए छाते ले जाने की ज़्यादा संभावना होती है.

प्रॉक्सी लेबल अक्सर सटीक नहीं होते हैं. जब संभव हो, तब वास्तविक लेबल चुनें प्रॉक्सी लेबल. इसलिए, जब कोई असल लेबल मौजूद न हो, तो प्रॉक्सी चुनें लेबल बहुत सावधानी से लेबल किया होगा, सबसे कम भयानक प्रॉक्सी लेबल कैंडिडेट चुना जा सकता है.

प्रॉक्सी (संवेदनशील एट्रिब्यूट)

#fairness
स्टैंड-इन के तौर पर इस्तेमाल किया जाने वाला एट्रिब्यूट संवेदनशील एट्रिब्यूट का इस्तेमाल करें. उदाहरण के लिए, व्यक्ति के पिन कोड का इस्तेमाल उसकी आय के लिए प्रॉक्सी के तौर पर किया जा सकता है, जाति या नस्ल.

प्योर फ़ंक्शन

ऐसा फ़ंक्शन जिसके आउटपुट सिर्फ़ इसके इनपुट पर आधारित होते हैं और जिसका कोई साइड नहीं होता इफ़ेक्ट. खास तौर पर, प्योर फ़ंक्शन किसी ग्लोबल स्थिति का न तो इस्तेमाल करता है और न ही उसमें बदलाव करता है, जैसे, किसी फ़ाइल का कॉन्टेंट या फ़ंक्शन के बाहर के किसी वैरिएबल की वैल्यू.

प्योर फ़ंक्शन का इस्तेमाल करके थ्रेड-सुरक्षित कोड बनाया जा सकता है, जो कई सारे ब्राउज़र में model कोड को शार्प करते समय ऐक्सेलरेटर चिप.

JAX के फ़ंक्शन को बदलने के तरीकों के लिए ज़रूरी है कि इनपुट फ़ंक्शन पूरी तरह से फ़ंक्शन हैं.

Q

क्यू-फ़ंक्शन

#rl

रीइन्फ़ोर्समेंट लर्निंग में, वह फ़ंक्शन जो यह अनुमान लगाता है कि return के दौरान इसमें कार्रवाई जानकारी दें और फिर दी गई नीति का पालन करें.

क्यू-फ़ंक्शन को स्टेट-ऐक्शन वैल्यू फ़ंक्शन भी कहा जाता है.

Q-learning

#rl

रीइन्फ़ोर्समेंट लर्निंग में, एक ऐसा एल्गोरिदम होता है जो एजेंट को अनुमति देता है के सबसे अच्छे Q-फ़ंक्शन के बारे में जानने के लिए लागू करने के बाद, मार्कोव के फ़ैसले की प्रोसेस बेलमैन इक्वेशन. मार्कोव के डिसिज़न प्रोसेस मॉडल एक एनवायरमेंट.

क्वेनटाइल

क्वांटाइल बकेटिंग में हर बकेट.

क्वानटाइल बकेटिंग

किसी सुविधा की वैल्यू को बकेट में बांटना, ताकि हर बकेट में समान (या करीब-करीब समान) संख्या के उदाहरण होते हैं. उदाहरण के लिए, नीचे दिया गया डायग्राम 44 पॉइंट को 4 बकेट में बांटता है, जिनमें से हर एक बकेट 11 पॉइंट हैं. आकृति में प्रत्येक बकेट के लिए पॉइंट की संख्या समान है, तो कुछ बकेट x-वैल्यू की अलग-अलग चौड़ाई में होती हैं.

44 डेटा पॉइंट, जिनमें से हर एक को 11 पॉइंट वाली चार बकेट में बांटा गया है.
          हालांकि हर बकेट में समान संख्या में डेटा पॉइंट होते हैं, लेकिन
          कुछ बकेट में सुविधा मानों की विस्तृत सीमा अन्य बकेट की तुलना में होती है
          बकेट.

क्वांटाइज़ेशन

ओवरलोडेड टर्म, जिसका इस्तेमाल इनमें से किसी भी तरीके से किया जा सकता है:

  • क्वांटाइल बकेटिंग को लागू करना किसी ख़ास सुविधा पर.
  • डेटा को शून्य और शून्य में बदलना. ऐसा इसलिए, ताकि डिवाइसों को तेज़ी से स्टोर किया जा सके, उन्हें ट्रेनिंग दी जा सके, और अनुमान लगाना. बूलियन डेटा, शोर और गड़बड़ियों के मामले में ज़्यादा असरदार होता है, इसलिए तो क्वांटाइज़ेशन की मदद से मॉडल को सटीक बनाने में मदद मिल सकती है. क्वांटाइज़ेशन की तकनीकों में राउंड ऑफ़, काट-छांट करना, और बिनिंग.
  • किसी मॉडल को स्टोर करने के लिए इस्तेमाल होने वाले बिट की संख्या कम करना पैरामीटर. उदाहरण के लिए, मान लीजिए कि किसी मॉडल के पैरामीटर को 32-बिट फ़्लोटिंग-पॉइंट नंबर के तौर पर सेव किया जाता है. क्वांटाइज़ेशन से उन्हें कन्वर्ज़न मिलता है पैरामीटर का इस्तेमाल सिर्फ़ 32 बिट से लेकर 4, 8 या 16 बिट तक कर सकते हैं. क्वांटाइज़ेशन की मदद से फ़ॉलो किया जा रहा है:

    • कंप्यूट, मेमोरी, डिस्क, और नेटवर्क के इस्तेमाल की जानकारी
    • पूर्वानुमान का पता लगाने का समय
    • ऊर्जा की खपत

    हालांकि, कभी-कभी क्वांटाइज़ेशन की वजह से मॉडल की सटीक जानकारी कम हो जाती है सुझाव.

सूची

#TensorFlow

TensorFlow ऑपरेशन, जो सूची के डेटा को लागू करता है स्ट्रक्चर. आम तौर पर, I/O में इस्तेमाल किया जाता है.

R

RAG

#fundamentals

के लिए संक्षिप्त रूप वापस पाने की प्रोसेस में बढ़ोतरी.

रैंडम फ़ॉरेस्ट

#df

इसमें डिसिज़न ट्री का कलेक्शन हर डिसिज़न ट्री को किसी खास शोर के साथ ट्रेनिंग दी जाती है. जैसे कि बैगिंग.

रैंडम फ़ॉरेस्ट एक तरह के फ़ैसले फ़ॉरेस्ट हैं.

रैंडम पॉलिसी

#rl

रीइन्फ़ोर्समेंट लर्निंग में, नीति बिना किसी क्रम के कार्रवाई.

रैंकिंग

एक तरह की सुपरवाइज़्ड लर्निंग जिसका इसका मकसद आइटम की सूची को क्रम से लगाना है.

रैंक (सामान्य)

उन कैटगरी की मशीन लर्निंग प्रॉब्लम में क्लास की रैंक जिन्हें कैटगरी में बांटा जाता है सबसे कम से लेकर सबसे कम लेवल तक की क्लास. उदाहरण के लिए, व्यवहार की रैंकिंग सिस्टम, कुत्ते के इनाम को सबसे अच्छी (एक स्टीक) से लेकर सबसे नीचे (मुरझाया हुआ केल).

रैंक (टेन्सर)

#TensorFlow

किसी Tensor में डाइमेंशन की संख्या. उदाहरण के लिए, एक अदिश का रैंक 0 है, एक सदिश का रैंक 1 है, और आव्यूह की रैंक 2 है.

रैंक (सामान्य) से अलग है.

रेटिंग देने वाला

#fundamentals

ऐसा व्यक्ति जो उदाहरणों के लिए लेबल देता है. "एनोटेटर" रेटिंग देने वाले का दूसरा नाम भी है.

रीकॉल

क्लासिफ़िकेशन मॉडल के लिए मेट्रिक, जो जवाब देती है नीचे दिया गया सवाल:

जब असल सच पॉज़िटिव क्लास, कुल अनुमान में से कितने प्रतिशत नतीजे तो मॉडल, पॉज़िटिव क्लास के तौर पर सही पहचान करता है?

इसका फ़ॉर्मूला यहां दिया गया है:

\[\text{Recall} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}} \]

कहां:

  • सही पॉज़िटिव का मतलब है कि मॉडल ने पॉज़िटिव क्लास का सही अनुमान लगाया है.
  • फ़ॉल्स नेगेटिव का मतलब है कि मॉडल ने गलती से ही नेगेटिव क्लास.

उदाहरण के लिए, मान लें कि आपके मॉडल ने ऐसे उदाहरणों पर 200 अनुमान लगाए जिनके लिए ज़मीनी हकीकत ही एक सकारात्मक क्लास थी. इन 200 अनुमानों में से:

  • 180 ट्रू पॉज़िटिव थे.
  • 20 नतीजे फ़ॉल्स नेगेटिव थे.

इस मामले में:

\[\text{Recall} = \frac{\text{180}} {\text{180} + \text{20}} = 0.9 \]

कैटगरी तय करना: सटीक होना, बाज़ार से हटाना, सटीक और संबंधित मेट्रिक हमारा वीडियो देखें.

सुझाव देने वाला सिस्टम

#recsystems

एक ऐसा सिस्टम जो हर उपयोगकर्ता के लिए, ज़रूरत के मुताबिक एक छोटा सेट चुनता है किसी बड़े संग्रह से आइटम. उदाहरण के लिए, वीडियो का सुझाव देने वाला सिस्टम, दो वीडियो के सुझाव दे सकता है को मिलाकर, 1,00,000 वीडियो के कलेक्शन में से कैसाब्लांका और एक उपयोगकर्ता के लिए द फ़िलाडेल्फ़िया स्टोरी और वंडर वुमन और दूसरे के लिए ब्लैक पैंथर. वीडियो का सुझाव देने वाला सिस्टम, उसके आधार पर सुझाव दिए जाते हैं, जैसे:

  • ऐसी फ़िल्में जिन्हें इसी तरह के दूसरे उपयोगकर्ताओं ने रेटिंग दी है या देखा है.
  • शैली, डायरेक्टर, अभिनेता, टारगेट की गई डेमोग्राफ़िक...

रेक्टिफ़ाइड लीनियर यूनिट (ReLU)

#fundamentals

ये ऐक्टिवेशन फ़ंक्शन होते हैं:

  • अगर इनपुट नेगेटिव या शून्य है, तो आउटपुट शून्य होता है.
  • अगर इनपुट पॉज़िटिव है, तो आउटपुट, इनपुट के बराबर होता है.

उदाहरण के लिए:

  • अगर इनपुट -3 है, तो आउटपुट 0 होगा.
  • अगर इनपुट में +3 है, तो आउटपुट 3.0 होगा.

यहां ReLU का प्लॉट दिया गया है:

दो पंक्तियों वाला कार्टिज़न प्लॉट. पहली पंक्ति में कोई नियतांक है
          0 का y मान, जो x-ऐक्सिस के साथ -infinity,0 से 0,-0 तक चल रहा है.
          दूसरी लाइन 0,0 से शुरू होती है. इस पंक्ति का स्लोप +1 है, इसलिए
          यह 0,0 से लेकर +इनफ़िनिटी,+अनंत तक चलता है.

ReLU एक काफ़ी लोकप्रिय ऐक्टिवेशन फ़ंक्शन है. अपने सरल व्यवहार के बावजूद, ReLU अब भी न्यूरल नेटवर्क को nonlinear सीखने में मदद करता है सुविधाओं और लेबल के बीच का संबंध.

बार-बार होने वाला न्यूरल नेटवर्क

#seq

ऐसा न्यूरल नेटवर्क जो जान-बूझकर कई ब्राउज़र पर चल रहा हो बार, जहां हर हिस्से का फ़ीड अगली बार चलाया जाता है. खास तौर पर, पिछली बार चलाए गए डेटा की छिपी हुई लेयर, अगली बार रन करने के दौरान, उसी छिपी हुई लेयर पर इनपुट डालें. बार-बार होने वाले न्यूरल नेटवर्क वे खास तौर पर क्रम का आकलन करने में मददगार होती हैं, ताकि छिपी हुई लेयर न्यूरल नेटवर्क के पिछले हिस्सों में न्यूरल नेटवर्क के पिछले हिस्सों से सीख सकता है क्रम में रखें.

उदाहरण के लिए, नीचे दिए गए डायग्राम में बार-बार एक न्यूरल नेटवर्क दिखता है जो चार बार चलती है. ध्यान दें कि छिपी हुई लेयर में सीखी गई वैल्यू, पहला रन, अंदर दिखाई देने वाली उन्हीं छिपी हुई लेयर के इनपुट का हिस्सा बन जाता है दूसरी बार इस्तेमाल किया गया. इसी तरह, छिपी हुई लेयर में सीखी गई वैल्यू दूसरी बार तब, जब आप ब्राउज़र में तीसरा चरण. इस तरह, बार-बार होने वाला न्यूरल नेटवर्क, धीरे-धीरे ट्रेनिंग देता है और सिर्फ़ मतलब के बजाय पूरे क्रम के मतलब का अनुमान लगाता है होने चाहिए.

ऐसा आरएनएन जो चार इनपुट शब्दों को प्रोसेस करने के लिए चार बार चलता है.

रिग्रेशन मॉडल

#fundamentals

अनौपचारिक रूप से, यह एक मॉडल है जो संख्या के तौर पर अनुमान लगाता है. (इसके उलट, क्लासिफ़िकेशन मॉडल से क्लास जनरेट होती है prediction.) उदाहरण के लिए, नीचे दिए गए सभी रिग्रेशन मॉडल के उदाहरण हैं:

  • ऐसा मॉडल जो किसी खास घर की वैल्यू का अनुमान लगाता है, जैसे कि 4,23,000 यूरो.
  • ऐसा मॉडल जो किसी खास पेड़ के जीवन की अनुमानित अवधि का अनुमान लगाता है, जैसे कि 23.2 साल.
  • एक मॉडल, जो किसी शहर में होने वाली बारिश का अनुमान लगाता है तापमान बढ़ाया जा सकता है. जैसे, 0.18 इंच.

आम तौर पर, रिग्रेशन मॉडल दो तरह के होते हैं:

  • लीनियर रिग्रेशन: इसमें सबसे अच्छी लाइन का पता चलता है लेबल की वैल्यू को सुविधाओं के हिसाब से सेट करता है.
  • लॉजिस्टिक रिग्रेशन, जिससे 0.0 और 1.0 के बीच की संभावना, जिसे सिस्टम आम तौर पर किसी क्लास के लिए मैप करता है सुझाव.

अंकों वाला अनुमान दिखाने वाला हर मॉडल, रिग्रेशन मॉडल नहीं होता. कुछ मामलों में, अंकों वाला अनुमान सिर्फ़ डेटा की कैटगरी तय करने का मॉडल होता है होता है, जिसमें संख्या वाले क्लास नाम होते हैं. उदाहरण के लिए, ऐसा मॉडल जो अनुमान लगाता है अंकों वाला पिन कोड, एक क्लासिफ़िकेशन मॉडल है, न कि रिग्रेशन मॉडल.

रेगुलराइज़ेशन

#fundamentals

ऐसा कोई भी तरीका जो ओवरफ़िटिंग को कम करता हो. रेगुलराइज़ेशन के ये तरीके लोकप्रिय हैं:

रेगुलराइज़ेशन को मॉडल की जटिलता की वजह से लगने वाला जुर्माना भी कहा जा सकता है.

रेगुलराइज़ेशन रेट

#fundamentals

वह संख्या जो ट्रेनिंग के दौरान नियमित तौर पर नियमित करना. अपनी रेगुलराइज़ेशन रेट, ओवरफ़िटिंग को कम करता है. हालांकि, मॉडल की अनुमान लगाने वाली पावर को कम कर सकती है. इसके उलट, कम करना या मिटाना रेगुलराइज़ेशन रेट, ओवरफ़िटिंग से बढ़ जाता है.

रीइन्फ़ोर्समेंट लर्निंग (आरएल)

#rl

ऐसे एल्गोरिदम का ग्रुप जो सबसे सही नीति के बारे में सीखते हैं, जिसका लक्ष्य इससे इंटरैक्ट करते समय, रिटर्न को ज़्यादा से ज़्यादा बढ़ाया जा सकता है एनवायरमेंट. जैसे, ज़्यादातर गेम का सबसे अहम इनाम जीत होता है. रीइन्फ़ोर्समेंट लर्निंग सिस्टम, मुश्किल सवालों को हल करने में माहिर बन सकते हैं पिछले गेम के सीक्वेंस का आकलन करके गेम इस वजह से, हमें जीत और सीक्वेंस मिले और उन्हें हार का सामना करना पड़ा.

लोगों के सुझाव, शिकायत या राय की मदद से रीइन्फ़ोर्समेंट लर्निंग (आरएलएचएफ़)

#generativeAI
#rl

रेटिंग देने वाले लोगों के सुझाव, शिकायत या राय का इस्तेमाल करके, किसी मॉडल के जवाबों की क्वालिटी को बेहतर बनाना. उदाहरण के लिए, आरएलएचएफ़ मैकेनिज़्म उपयोगकर्ताओं से किसी मॉडल की क्वालिटी को रेटिंग देने के लिए कह सकता है जवाब के लिए 👍 या 🎊 इमोजी का इस्तेमाल करें. इसके बाद, सिस्टम आगे मिलने वाले जवाबों में बदलाव कर सकता है सुझाव के आधार पर.

ReLU

#fundamentals

रेक्टिफ़ाइड लीनियर यूनिट का छोटा नाम.

बफ़र को फिर से चलाएं

#rl

DQN जैसे एल्गोरिदम में, वह मेमोरी जिसका इस्तेमाल एजेंट करता है स्थिति ट्रांज़िशन स्टोर करने के लिए अनुभव को फिर से चलाने की सुविधा.

प्रतिरूप

ट्रेनिंग सेट या मॉडल की एक कॉपी, आम तौर पर किसी दूसरी मशीन पर करते हैं. उदाहरण के लिए, कोई सिस्टम इनका इस्तेमाल कर सकता है डेटा के साथ काम करने को लागू करने की रणनीति:

  1. किसी मौजूदा मॉडल की प्रतिकृतियों को एक से ज़्यादा मशीनों पर रखें.
  2. हर एक प्रतिकृति पर ट्रेनिंग सेट के अलग-अलग सबसेट भेजें.
  3. पैरामीटर के अपडेट को एग्रीगेट करें.

रिपोर्टिंग में भेदभाव

#fairness

लोगों द्वारा कार्रवाइयों के बारे में लिखने की फ़्रीक्वेंसी, नतीजों या प्रॉपर्टी से लोगों की असल दुनिया का पता नहीं चलता फ़्रीक्वेंसी या वह डिग्री जिस पर प्रॉपर्टी की विशेषता है अच्छी तरह से काम कर रहे हैं. रिपोर्टिंग में होने वाले भेदभाव से कंपोज़िशन पर असर पड़ सकता है जिसे मशीन लर्निंग सिस्टम सीखता है.

उदाहरण के लिए, किताबों में हंसी-मज़ाक़ शब्द का इस्तेमाल ज़्यादा सांस के रूप में सेव हो. एक ऐसा मशीन लर्निंग मॉडल जो किसी किताब के संग्रह से हंसने और सांस लेने पर कि हंसना, सांस लेने से ज़्यादा सामान्य है.

प्रतिनिधित्व

काम की सुविधाओं के साथ डेटा को मैप करने की प्रोसेस.

री-रैंकिंग

#recsystems

सुझाव देने वाले सिस्टम का आखिरी चरण, जिसके दौरान स्कोर किए गए आइटम को उनके क्रम के अनुसार फिर से ग्रेड किया जा सकता है (आम तौर पर, गैर-एमएल) एल्गोरिदम. फिर से रैंकिंग देने से आइटम की सूची का आकलन किया जाता है यह डेटा, स्कोरिंग फ़ेज़ के हिसाब से जनरेट होता है. इसके लिए, ये कार्रवाइयां की जा सकती हैं:

  • ऐसे आइटम हटाना जिन्हें उपयोगकर्ता पहले ही खरीद चुका है.
  • इसके अलावा, ज़्यादा से ज़्यादा नए प्रॉडक्ट की संख्या बढ़ाई जा रही है.

रिकवरी-एग्मेंटेड जनरेशन (आरएजी)

#fundamentals

इसकी गुणवत्ता में सुधार करने की तकनीक बड़े लैंग्वेज मॉडल (एलएलएम) आउटपुट मॉडल को ट्रेनिंग देने के बाद, इकट्ठा किए गए स्रोतों से मिली जानकारी को आधार बनाया. RAG एलएलएम के जवाबों को ज़्यादा सटीक बनाता है. इसके लिए, वह ट्रेन किए गए एलएलएम का इस्तेमाल करता है भरोसेमंद नॉलेज बेस या दस्तावेज़ों से मिली जानकारी का ऐक्सेस.

रिकवर करने में मदद करने वाली जनरेशन में आम तौर पर ये चीज़ें शामिल होती हैं:

  • किसी मॉडल के जनरेट किए गए जवाबों के तथ्यों को ज़्यादा सटीक बनाना.
  • मॉडल को उस जानकारी का ऐक्सेस देना जिसके लिए उसे ट्रेनिंग नहीं दी गई थी.
  • मॉडल में इस्तेमाल की जाने वाली जानकारी बदलना.
  • सोर्स का उद्धरण देने के लिए मॉडल को चालू करना.

उदाहरण के लिए, मान लीजिए कि कोई केमिस्ट्री ऐप्लिकेशन PaLM का इस्तेमाल करता है खास जानकारी जनरेट करने के लिए एपीआई उपयोगकर्ता क्वेरी से संबंधित होता है. ऐप्लिकेशन के बैकएंड से कोई क्वेरी मिलने पर, बैकएंड:

  1. उपयोगकर्ता की क्वेरी के हिसाब से काम के डेटा को खोजता है ("वापस लाया जाता है").
  2. उपयोगकर्ता की क्वेरी में काम के केमिकल के डेटा को जोड़ता है ("बढ़ाएं").
  3. यह एलएलएम को, जोड़े गए डेटा के आधार पर जवाब बनाने का निर्देश देता है.

रिटर्न

#rl

एक खास नीति और एक खास स्थिति को ध्यान में रखते हुए, रीइन्फ़ोर्समेंट लर्निंग में, यह, एजेंट से मिले सभी इनाम का कुल योग होता है नीति का पालन करते समय एपिसोड के आखिर में जानकारी दें. एजेंट इसमें, इनाम में छूट देने से मिलने वाले संभावित इनामों की जानकारी शामिल होती है. यह इनाम पाने के लिए ज़रूरी राज्य ट्रांज़िशन के मुताबिक है.

इसलिए, अगर छूट का फ़ैक्टर \(\gamma\), और \(r_0, \ldots, r_{N}\)है एपिसोड के आखिर तक इनामों को दिखाते रहने के बाद, रिटर्न का हिसाब लगाने के लिए कहा जाता है नीचे दिया गया है:

$$\text{Return} = r_0 + \gamma r_1 + \gamma^2 r_2 + \ldots + \gamma^{N-1} r_{N-1}$$

इनाम

#rl

रीइन्फ़ोर्समेंट लर्निंग में, किसी राज्य में, action, जैसा कि परिवेश.

रिज रेगुलराइज़ेशन

L2 रेगुलराइज़ेशन का समानार्थी शब्द. शब्द रिज रेगुलराइज़ेशन का इस्तेमाल ज़्यादातर आंकड़ों में किया जाता है कॉन्टेक्स्ट के हिसाब से काम करता है, जबकि L2 रेगुलराइज़ेशन का ज़्यादा इस्तेमाल किया जाता है इस्तेमाल किया जाता है.

RNN

#seq

बार-बार होने वाले न्यूरल नेटवर्क का शॉर्ट फ़ॉर्म.

आरओसी (रिसीवर ऑपरेटिंग एट्रिब्यूट) कर्व

#fundamentals

ट्रू पॉज़िटिव रेट बनाम का ग्राफ़ अलग-अलग विज्ञापनों के लिए, फ़ॉल्स पॉज़िटिव रेट क्लासिफ़िकेशन थ्रेशोल्ड बाइनरी में वर्गीकरण.

आरओसी कर्व का आकार, बाइनरी क्लासिफ़िकेशन मॉडल की क्षमता का संकेत देता है पॉज़िटिव क्लास को नेगेटिव क्लास से अलग करने के लिए. उदाहरण के लिए, मान लीजिए कि कि एक बाइनरी क्लासिफ़िकेशन मॉडल, सभी नेगेटिव वैल्यू को पूरी तरह से अलग करता है सभी पॉज़िटिव क्लास से क्लास:

एक नंबर लाइन, जिसमें दाईं ओर 8 पॉज़िटिव उदाहरण दिए गए हैं और
          बाईं ओर सात नेगेटिव उदाहरण.

पिछले मॉडल के लिए आरओसी कर्व इस तरह दिखता है:

आरओसी कर्व. x-ऐक्सिस, फ़ॉल्स पॉज़िटिव रेट और y-ऐक्सिस होता है
          सही पॉज़िटिव रेट होता है. इस कर्व का आकार उलटा है. द कर्व
          (0.0,0.0) से शुरू होकर सीधे (0.0,1.0) तक जाता है. इसके बाद, कर्व
          (0.0,1.0) से (1.0,1.0) तक जाता है.

इसके उलट, नीचे दिए गए इलस्ट्रेशन में रॉ लॉजिस्टिक रिग्रेशन को दिखाया गया है के लिए मान गलत हैं, जो नेगेटिव क्लास को पॉज़िटिव क्लास:

धनात्मक उदाहरणों और ऋणात्मक वर्गों वाली संख्या रेखा
          पूरी तरह से आपस में जुड़े नहीं.

इस मॉडल के लिए आरओसी कर्व इस तरह दिखता है:

आरओसी कर्व, जो असल में (0.0,0.0) से एक सीधी लाइन है
          से (1.0,1.0) तक.

असल दुनिया में, ज़्यादातर बाइनरी क्लासिफ़िकेशन मॉडल अलग-अलग होते हैं कुछ हद तक पॉज़िटिव और नेगेटिव क्लास, लेकिन आम तौर पर बिलकुल पूरी तरह से नहीं. इसलिए, एक सामान्य ROC कर्व, इन दोनों चरम सीमाओं के बीच में होता है:

आरओसी कर्व. x-ऐक्सिस, फ़ॉल्स पॉज़िटिव रेट और y-ऐक्सिस होता है
          सही पॉज़िटिव रेट होता है. आरओसी कर्व किसी अस्थिर चाप का अनुमान लगाता है
          पश्चिम से उत्तर की ओर कंपास पॉइंट पर दिशा में घूम रहा है.

(0.0,1.0) के निकटतम ROC वक्र पर मौजूद बिंदु सैद्धांतिक रूप से डेटा को कैटगरी में बांटने का सही थ्रेशोल्ड. हालांकि, असल दुनिया के कई अन्य मुद्दे सही कैटगरी तय करने के थ्रेशोल्ड को चुनने पर असर डालती हैं. उदाहरण के लिए, शायद फ़ॉल्स नेगेटिव की वजह से फ़ॉल्स पॉज़िटिव के मुकाबले कहीं ज़्यादा नुकसान पहुंचता है.

AUC नाम वाली मेट्रिक, ROC कर्व को का इस्तेमाल किया जा सकता है.

भूमिका के लिए प्रॉम्प्ट

#language
#generativeAI

प्रॉम्प्ट का एक वैकल्पिक हिस्सा, जो टारगेट ऑडियंस की पहचान करता है जनरेटिव एआई मॉडल से मिले रिस्पॉन्स के लिए, डाइग्नोस्टिक टूल का इस्तेमाल किया जा सकता है. किसी भूमिका के बिना प्रॉम्प्ट, बड़ा लैंग्वेज मॉडल ऐसा जवाब देता है जो काम का हो भी सकता है और नहीं भी सवाल पूछने वाले व्यक्ति के लिए. रोल प्रॉम्प्ट के साथ, एक बड़ी भाषा मॉडल इस तरह से जवाब दे सकता है कि जो किसी खास टारगेट ऑडियंस को टारगेट करना. उदाहरण के लिए, नीचे दिए गए भूमिका प्रॉम्प्ट वाला हिस्सा प्रॉम्प्ट बोल्डफ़ेस में होते हैं:

  • अर्थशास्त्र में पीएचडी के लिए इस लेख का सारांश बनाओ.
  • बताओ कि 10 साल के बच्चे के लिए ज्वार कैसे काम करता है.
  • 2008 की वित्तीय संकट के बारे में बताओ. जैसे, छोटे बच्चे से बात करें, या गोल्डन रिट्रीवर नस्ल का कुत्ता.

रूट

#df

शुरुआती नोड (पहला शर्त) के लिए एक डिसिज़न ट्री का इस्तेमाल करना चाहिए. तरीके के हिसाब से, डायग्राम रूट को डिसिज़न ट्री के सबसे ऊपर दिखाता है. उदाहरण के लिए:

दो शर्तों और तीन पत्तियों वाला डिसिज़न ट्री. कॉन्टेंट बनाने
          शुरुआती शर्त (x > 2) रूट है.

रूट डायरेक्ट्री

#TensorFlow

वह डायरेक्ट्री जिसे TensorFlow की सबडायरेक्ट्री होस्ट करने के लिए तय किया जाता है कई मॉडल की चेकपॉइंट और इवेंट फ़ाइलें शामिल हैं.

रूट मीन स्क्वेयर्ड एरर (RMSE)

#fundamentals

मीन स्क्वेयर्ड एरर का वर्गमूल.

रोटेशनल इन्वैरियंस

#image

इमेज क्लासिफ़िकेशन के सवाल में, एल्गोरिदम की यह क्षमता कि इमेज का ओरिएंटेशन बदलने पर भी उन्हें कैटगरी में बांटा जा सकता है. उदाहरण के लिए, एल्गोरिदम अब भी टेनिस रैकेट की पहचान कर सकता है, क्या यह ऊपर की ओर इशारा करता है, तिरछा या नीचे की ओर. ध्यान दें कि रोटेशनल इन्वैरिएंस का हमेशा इस्तेमाल करना ज़रूरी नहीं होता; उदाहरण के लिए, उलटे मान 9 को 9 की कैटगरी में नहीं रखा जाना चाहिए.

अनुवादक इनवैरिएंस और साइज़ इनवैरियंस.

R-squared

रिग्रेशन की मेट्रिक से पता चलता है कि किसी लेबल, किसी सुविधा या सुविधा के सेट की वजह से होता है. आर-स्क्वेयर, 0 और 1 के बीच की कोई वैल्यू होती है, जिसे इस तरह समझा जा सकता है:

  • 0 के R-वर्ग का मतलब है कि किसी लेबल की कोई भी भिन्नता सुविधा सेट.
  • 1 के R-वर्ग का मतलब है कि किसी लेबल की सभी विविधता सुविधा सेट.
  • 0 और 1 के बीच का R-वर्ग यह बताता है कि लेबल की का अनुमान किसी विशेष सुविधा या विशेषता के सेट से लगाया जा सकता है. उदाहरण के लिए, 0.10 के R-वर्ग का मतलब है कि वैरिएंस का 10 प्रतिशत लेबल में सुविधा सेट के कारण है, तो 0.20 के R-वर्ग का मतलब है कि 20 प्रतिशत, सुविधा के सेट की वजह से है. यह क्रम इसी हिसाब से तय होता है.

R-स्क्वेयर, पीयर्सन कोरिलेशन गुणांक के बीच होता है. बुनियादी सत्य.

S

सैंपलिंग बायस

#fairness

चुनाव के मापदंड देखें.

रिप्लेसमेंट की मदद से सैंपलिंग

#df

उम्मीदवार के आइटम के सेट में से आइटम चुनने का तरीका आइटम को एक से ज़्यादा बार चुना जा सकता है. वाक्यांश "बदलाव के साथ" इसका मतलब है हर विकल्प को चुनने के बाद, चुने गए आइटम को पूल में लौटा दिया जाता है विकल्प मौजूद है. इन्वर्स तरीका, बिना बदले सैंपल करना, इसका मतलब है कि किसी उम्मीदवार के आइटम को सिर्फ़ एक बार चुना जा सकता है.

उदाहरण के लिए, फलों के इस सेट पर विचार करें:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

मान लें कि सिस्टम किसी भी क्रम में, fig को पहले आइटम के तौर पर चुनता है. अगर रिप्लेसमेंट के साथ सैंपलिंग का इस्तेमाल किया जा रहा है, तो सिस्टम निम्न सेट में से दूसरा आइटम:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

हां, यह पहले की तरह ही सेट है. इसलिए, हो सकता है कि सिस्टम fig को फिर से चुनें.

अगर किसी सैंपल को चुने बिना सैंपल का इस्तेमाल किया जा रहा है, तो उसे चुनने के बाद, उस सैंपल का इस्तेमाल नहीं किया जा सकता फिर से चुना गया. उदाहरण के लिए, अगर सिस्टम किसी भी क्रम में fig को पहला सैंपल मिलेगा. इसके बाद, fig को फिर से नहीं चुना जा सकता. इसलिए, सिस्टम नीचे दिए गए (कम किए गए) सेट में से दूसरा सैंपल चुनता है:

fruit = {kiwi, apple, pear, cherry, lime, mango}

सेव मॉडल

#TensorFlow

TensorFlow के मॉडल को सेव और वापस पाने के लिए सुझाया गया फ़ॉर्मैट. SavedModel एक भाषा-न्यूट्रल, वापस पाने लायक सीरियलाइज़ेशन फ़ॉर्मैट है, जो TensorFlow को बनाने, उसका इस्तेमाल करने, और उसमें बदलाव करने के लिए, बेहतरीन सिस्टम और टूल मॉडल.

सेव करना और वापस लाना सेक्शन देखें पूरी जानकारी के लिए, TensorFlow प्रोग्रामर की गाइड पढ़ें.

सेवर

#TensorFlow

TensorFlow ऑब्जेक्ट की ज़िम्मेदारी मॉडल चेकपॉइंट को सेव करने की होती है.

स्केलर

कोई एक संख्या या एक स्ट्रिंग जिसे रैंक 0 का tensor. उदाहरण के लिए, निम्न कोड की हर लाइन, TensorFlow में एक स्केलर बनाती है:

breed = tf.Variable("poodle", tf.string)
temperature = tf.Variable(27, tf.int16)
precision = tf.Variable(0.982375101275, tf.float64)

स्केलिंग

ऐसा कोई भी गणितीय बदलाव या तकनीक जो किसी लेबल की रेंज में बदलाव करती हो और/या सुविधा की वैल्यू. स्केलिंग के कुछ तरीके, बदलावों के लिए बहुत काम के हैं जैसे कि नॉर्मलाइज़ेशन.

मशीन लर्निंग में स्केलिंग के उपयोगी तरीके ये हैं:

  • लीनियर स्केलिंग, जिसमें आम तौर पर घटाव और मूल मान को -1 और +1 के बीच की संख्या से बदलने के लिए भाग दें या 0 और 1 के बीच होना चाहिए.
  • लॉगारिद्मिक स्केलिंग, जो ओरिजनल वैल्यू को उसकी लॉगारिदम.
  • Z-स्कोर नॉर्मलाइज़ेशन, जो फ़्लोटिंग-पॉइंट वैल्यू के साथ ओरिजनल वैल्यू, जो उस सुविधा के माध्य से मानक विचलन.

विज्ञान-सीखने के लिए

एक लोकप्रिय ओपन सोर्स मशीन लर्निंग प्लैटफ़ॉर्म. यहां जाएं: scikit-learn.org पर जाएगा.

स्कोरिंग

#recsystems

यह सुझाव देने वाले सिस्टम का हिस्सा है से मिलने वाले हर आइटम के लिए मान या रैंकिंग देता है उम्मीदवार के जनरेशन में होने वाला चरण.

चुनने से जुड़ा मापदंड

#fairness

चुनने की प्रोसेस की वजह से, सैंपल डेटा से लिए गए नतीजों में गड़बड़ियां हुईं यह डेटा में मौजूद सैंपल के बीच सामान्य अंतर जनरेट करता है और जिनकी निगरानी नहीं की गई. ये पूर्वाग्रह हैं:

  • कवरेज बायस: डेटासेट में दिखने वाली जनसंख्या, उन लोगों से मैच करें जिन्हें मशीन लर्निंग मॉडल बना रहा है के बारे में सुझाव.
  • सैंपलिंग बायस: टारगेट ग्रुप से रैंडम तरीके से डेटा इकट्ठा नहीं किया जाता.
  • गैर-रिस्पॉन्स बायस (इसे पार्टिसिपेशन बायस भी कहा जाता है): कुछ समूह उपयोगकर्ताओं की तुलना में अलग-अलग दरों पर सर्वे से ऑप्ट-आउट करते हैं अन्य समूह.

उदाहरण के लिए, मान लीजिए कि एक ऐसा मशीन लर्निंग मॉडल बनाया जा रहा है जो लोग फ़िल्म देखना पसंद करते हैं. ट्रेनिंग डेटा इकट्ठा करने के लिए, साथ ही, थिएटर में सबसे आगे रहने वाले हर व्यक्ति को एक सर्वे भेजा जाता है फ़िल्म दिखा रहा है. यह सुनने में थोड़ा सही लग सकता है डेटासेट इकट्ठा करने के लिए; हालांकि, इकट्ठा किए जाने वाले इस तरह के डेटा चयन पूर्वाग्रह के इन प्रकारों के बारे में बताएं:

  • कवरेज बायस: ऐसे लोगों के सैंपल के आधार पर जिन्होंने विज्ञापन देखने का विकल्प चुना आपके मॉडल के अनुमान लोगों के लिए जिन्होंने फ़िल्म में अभी तक दिलचस्पी नहीं दिखाई है.
  • सैंपलिंग पूर्वाग्रह: टारगेट की गई जनसंख्या (फ़िल्म में मौजूद सभी लोग), आपने सिर्फ़ सैंपल के तौर पर चुना है में से एक को चुनें. ऐसा हो सकता है कि जो लोग फ़ोन पर तो पहली लाइन में अन्य पंक्तियां.
  • गैर-प्रतिक्रिया पूर्वाग्रह: आम तौर पर, अच्छी राय रखने वाले लोगों को कम स्वास्थ्य वाले लोगों की तुलना में, वैकल्पिक सर्वे में ज़्यादा बार जवाब दे सकें के बारे में बताएं. फ़िल्म के सर्वे का जवाब देना ज़रूरी नहीं है, इसलिए जवाबों को बनाने की ज़्यादा संभावना होती है, बायमॉडल डिस्ट्रिब्यूशन एक सामान्य (घंटी के आकार में) डिस्ट्रिब्यूशन की तुलना में.

खुद का ध्यान रखना (इसे सेल्फ़-अटेंशन लेयर भी कहा जाता है)

#language

एक न्यूरल नेटवर्क लेयर, जो एम्बेड करना (उदाहरण के लिए, टोकन एम्बेड करना) एम्बेड करने के एक और क्रम में जोड़ा जा सकता है. आउटपुट क्रम में हर एम्बेडिंग है यह इनपुट क्रम के एलिमेंट से मिली जानकारी को शामिल करके बनाया गया है ध्यान देने के तरीके से किया जाता है.

सेल्फ़-ध्यान रखने का खुद हिस्सा दिखाने का मतलब है, करने की ज़रूरत नहीं है. खुद का ध्यान रखना ट्रांसफ़ॉर्मर के लिए बिल्डिंग ब्लॉक और डिक्शनरी लुकअप का इस्तेमाल करता है शब्दावली, जैसे कि "query", "key", और "value".

खुद पर ध्यान देने वाली लेयर, इनपुट के सिलसिलेवार निर्देशों से शुरू होती है. डालें. किसी शब्द को इनपुट के तौर पर दिखाने के लिए, एम्बेड करना. किसी इनपुट क्रम में मौजूद हर शब्द के लिए, नेटवर्क कीवर्ड के हर एलिमेंट के लिए, शब्द के हिसाब से स्कोर तय करता है. शब्द. प्रासंगिकता से जुड़े स्कोर से यह तय होता है कि शब्द को कितनी बार लिखा गया है अन्य शब्दों के प्रतिनिधित्व शामिल करता है.

उदाहरण के लिए, इस वाक्य पर गौर करें:

जानवर बहुत थका हुआ था, इसलिए वह सड़क पार नहीं किया.

नीचे दिया गया उदाहरण (इससे) ट्रांसफ़ॉर्मर: भाषा के लिए एक नॉवल न्यूरल नेटवर्क आर्किटेक्चर समझना) it सर्वनाम के लिए, खुद पर ध्यान देने वाली लेयर का पैटर्न दिखाता है. हर पंक्ति का अंधेरा यह दिखाता है कि हर शब्द का कितना योगदान है प्रतिनिधित्व:

यह वाक्य दो बार दिखता है: जानवर ने
          सड़क पर लगी हुई थी. लाइनें, सर्वनाम को
          एक वाक्य में पांच टोकन के लिए (जैसे, जानवर, सड़क, यह और
          .  सर्वनाम के बीच की रेखा
          और जानवर शब्द सबसे मज़बूत है.

खुद पर ध्यान देने वाली लेयर, "इससे" काम के शब्दों को हाइलाइट करती है. इसमें केस, अटेंशन लेयर ने उन शब्दों को हाइलाइट करना सीख लिया है जिन्हें यह जानवर को सबसे ज़्यादा भार असाइन करना.

n टोकन के सीक्वेंस के लिए, खुद को ध्यान में रखने से एक क्रम बदल जाता है क्रम में हर जगह पर एक बार, n अलग-अलग बार एम्बेड करने की सुविधा.

ध्यान भी दें और मल्टी-हेड सेल्फ़-अटेंशन.

सेल्फ़-सुपरवाइज़्ड लर्निंग

कई तकनीकों का इस्तेमाल करके, अनसुपरवाइज़्ड मशीन लर्निंग से जुड़ी समस्या सुपरवाइज़्ड मशीन लर्निंग की समस्या में इसके लिए, सरोगेट लेबल बनाए जा सकते हैं बिना लेबल वाले उदाहरण.

Transformer-आधारित कुछ मॉडल, जैसे कि Transformer इस्तेमाल करते हैं सेल्फ़-सुपरवाइज़्ड लर्निंग.

सेल्फ़-सुपरवाइज़्ड ट्रेनिंग, सेमी-सुपरवाइज़्ड लर्निंग का तरीका.

सेल्फ़-ट्रेनिंग

सेल्फ़-सुपरवाइज़्ड लर्निंग का एक वैरिएंट. खास तौर पर तब फ़ायदेमंद होती है, जब नीचे दी गई सभी शर्तें सही हों:

सेल्फ़-ट्रेनिंग तब तक काम करती है, जब तक कि मॉडल सुधार होना बंद हो जाता है:

  1. निगरानी वाली मशीन लर्निंग का इस्तेमाल करके, लेबल किए गए उदाहरणों के मुताबिक, मॉडल को ट्रेनिंग दें.
  2. इस पर अनुमान (लेबल) जनरेट करने के लिए चरण 1 में बनाए गए मॉडल का उपयोग करें बिना लेबल वाले उदाहरण. इसमें ऐसे उदाहरण शामिल होते हैं जिनमें बहुत ज़्यादा भरोसा होता है अनुमानित लेबल के साथ लेबल किए गए उदाहरण.

ध्यान दें कि चरण 2 की हर सूचना, पहले चरण के लिए लेबल किए गए ज़्यादा उदाहरण जोड़ती है ट्रेन करते रहें.

सेमी-सुपरवाइज़्ड लर्निंग

ऐसे डेटा पर मॉडल को ट्रेनिंग देना जिसमें ट्रेनिंग के कुछ उदाहरणों के लेबल हों अन्य को नहीं. सेमी-सुपरवाइज़्ड लर्निंग की एक तकनीक यह है कि बिना लेबल वाले उदाहरण और फिर अनुमानित लेबलों के आधार पर ट्रेनिंग देकर, मॉडल. अगर लेबल ज़्यादा महंगे हैं, तो सेमी-सुपरवाइज़्ड लर्निंग उपयोगी हो सकती है लेकिन बिना लेबल वाले कई उदाहरण हैं.

सेल्फ़-ट्रेनिंग, सेमी-सुपरवाइज़्ड मॉडल के लिए एक तकनीक है सीखना.

संवेदनशील एट्रिब्यूट

#fairness
एक ऐसा मानवीय एट्रिब्यूट, जिसे कानूनी वजह से खास तौर पर ध्यान में रखा जा सकता है, नैतिक, सामाजिक या निजी वजहों से.

भावनाओं का विश्लेषण

#language

किसी समूह की किसी सेवा, प्रॉडक्ट, संगठन या विषय. उदाहरण के लिए, सामान्य भाषा की समझ, एल्गोरिदम, टेक्स्ट वाले सुझाव पर भावनाओं का विश्लेषण कर सकता है यूनिवर्सिटी के कोर्स की मदद से, यह तय किया है कि किस छात्र/छात्रा ने किस डिग्री पर सामान्य रूप से कोर्स को पसंद या नापसंद किया.

सीक्वेंस मॉडल

#seq

ऐसा मॉडल जिसके इनपुट क्रम पर निर्भर होते हैं. उदाहरण के लिए, पहले देखे गए वीडियो के क्रम से देखा गया अगला वीडियो.

टास्क को क्रम से लगाने के लिए इस्तेमाल किया जाने वाला टास्क

#language

ऐसा टास्क जो टोकन के इनपुट क्रम को आउटपुट में बदलता है टोकन का क्रम तय नहीं कर सकता. उदाहरण के लिए, अनुक्रम-से-क्रम के दो लोकप्रिय प्रकार टास्क हैं:

  • अनुवादक:
    • इनपुट का क्रम: "मुझे तुमसे प्यार है".
    • आउटपुट सीक्वेंस का सैंपल: "Je t'aime."
  • सवाल का जवाब दें:
    • इनपुट का क्रम: "क्या मुझे न्यूयॉर्क में अपनी कार चाहिए?"
    • सैंपल आउटपुट सीक्वेंस: "नहीं. कृपया अपनी कार घर पर रखें."

व्यक्ति खा सकता है

किसी ट्रेन किए गए मॉडल को, इसकी मदद से अनुमान लगाने के लिए उपलब्ध कराने की प्रोसेस ऑनलाइन अनुमान या ऑफ़लाइन अनुमान.

आकार (टेन्सर)

किसी इवेंट के हर डाइमेंशन में एलिमेंट की संख्या टेंसर. आकार को पूर्णांकों की सूची के तौर पर दिखाया जाता है. उदाहरण के लिए, यहां दिए गए 2-डाइमेंशन टेंसर का आकार [3,4] है:

[[5, 7, 6, 4],
 [2, 9, 4, 8],
 [3, 6, 5, 1]]

TensorFlow, पंक्ति के मेजर (C-स्टाइल) फ़ॉर्मैट का इस्तेमाल करके, इसलिए, TensorFlow में मौजूद आकार, [3,4] [4,3]. दूसरे शब्दों में, दो-डाइमेंशन वाले TensorFlow Tensor में, [पंक्तियों की संख्या, कॉलम की संख्या] है.

स्टैटिक शेप, एक टेंसर आकार होता है. इसे कंपाइल करते समय जाना पड़ता है.

कंपाइल करते समय, डाइनैमिक आकार की वैल्यू जानकारी नहीं होती और यह इसलिए, यह रनटाइम डेटा पर निर्भर करता है. इस टेंसर को इससे दिखाया जा सकता है: TensorFlow में प्लेसहोल्डर डाइमेंशन, जैसा कि [3, ?] में है.

शार्ड

#TensorFlow
#GoogleCloud

ट्रेनिंग सेट का लॉजिकल डिवीज़न या model. आम तौर पर, कुछ प्रोसेस आम तौर पर, इसमें उदाहरण या पैरामीटर शामिल होते हैं छोटे-छोटे टुकड़ों में. फिर प्रत्येक शार्ड को एक अलग मशीन को असाइन कर दिया जाता है.

किसी मॉडल को शार्ड करने को मॉडल पैरलिज़्म कहा जाता है; डेटा शेयर करने को डेटा पैरलिज़्म कहा जाता है.

सिकुड़ना

#df

इसमें हाइपर पैरामीटर होता है ग्रेडिएंट बूस्टिंग, जो कंट्रोल करती है ओवरफ़िटिंग (ओवरफ़िटिंग). ग्रेडिएंट बूस्टिंग में छोटा करें लर्निंग रेट के बराबर है ग्रेडिएंट डिसेंट. श्रिंकेज एक दशमलव है की वैल्यू 0.0 और 1.0 के बीच होनी चाहिए. कम संकुचन मान से ओवरफ़िटिंग कम हो जाती है मान कम हो जाता है.

सिगमॉइड फ़ंक्शन

#fundamentals

गणित का ऐसा फ़ंक्शन जो "स्क्विश" करता है किसी सीमित रेंज में इनपुट वैल्यू, आम तौर पर 0 से 1 या +1 के लिए -1 होता है. इसका मतलब है कि आप किसी भी संख्या (दो, दस लाख, नेगेटिव बिलियन, जो भी हो) को सिग्मॉइड में बदल देता है और आउटपुट अब भी सीमित रेंज. सिगमॉइड ऐक्टिवेशन फ़ंक्शन का प्लॉट इस तरह दिखता है:

दो डाइमेंशन वाला कर्व प्लॉट, जिसमें डोमेन में मौजूद x वैल्यू मौजूद हैं
          -अंतरंग से +धनात्मक, जबकि y के मान करीब 0 से लेकर
          करीब 1. जब x का मान 0 होता है, तो y का मान 0.5 होता है. कर्व का स्लोप हमेशा होता है
          पॉज़िटिव, सबसे ज़्यादा ढलान के साथ 0,0.5 और धीरे-धीरे घटता जा रहा है
          x का निरपेक्ष मान बढ़ने पर स्लोप.

सिगमॉइड फ़ंक्शन को मशीन लर्निंग में कई चीज़ों के लिए इस्तेमाल किया जाता है. इनमें ये शामिल हैं:

समानता का माप

#clustering

क्लस्टरिंग एल्गोरिदम में, वह मेट्रिक जिसका इस्तेमाल यह तय करने के लिए किया जाता है कोई दो उदाहरण कितने मिलते-जुलते हैं.

एक प्रोग्राम / एक से ज़्यादा डेटा (एसपीएमडी)

पैरललिज़्म की ऐसी तकनीक जिसमें अलग-अलग इनपुट पर एक ही कंप्यूटेशन को रन किया जाता है पर डेटा को एक साथ देख सकते हैं. एसपीडीएम का लक्ष्य, नतीजे पाना है और भी जल्दी ऐक्सेस किया जा सकता है. यह पैरलल प्रोग्रामिंग का सबसे आम तरीका है.

साइज़ इन्वैरियंस

#image

इमेज क्लासिफ़िकेशन के सवाल में, एल्गोरिदम की यह क्षमता कि इमेज का साइज़ बदलने पर भी इमेज को अलग-अलग कैटगरी में बांट सकती हैं. उदाहरण के लिए, एल्गोरिदम की मदद से, बिल्ली के लिए 20 लाख पिक्सल या 2 लाख पिक्सल. ध्यान दें कि यहां तक कि सबसे अच्छा इमेज क्लासिफ़िकेशन एल्गोरिदम में, साइज़ इन्वैरियंस की अब भी कुछ सीमाएं हैं. उदाहरण के लिए, किसी एल्गोरिदम (या इंसान) के बिल्ली की ऐसी इमेज जो सिर्फ़ 20 पिक्सल इस्तेमाल करती है.

अनुवादक इनवैरिएंस और रोटेशनल इनवैरिएंस.

स्केचिंग

#clustering

बिना निगरानी वाली मशीन लर्निंग में, एल्गोरिदम की एक कैटगरी जो समानता का शुरुआती विश्लेषण करती है देखें. रेखांकन एल्गोरिदम इलाके के हिसाब से संवेदनशील हैश फ़ंक्शन उन बिंदुओं की पहचान करने के लिए जो समान हो सकते हैं, और फिर उन्हें बाल्टी-मग से काटता है.

स्केचिंग से, समानता का हिसाब लगाने के लिए ज़रूरी कंप्यूटेशन कम हो जाता है पर काम करती हैं. हर एक के लिए समानता का पता लगाने के बजाय डेटासेट में उदाहरणों के जोड़े हैं, तो हम दोनों के लिए समानता का आकलन करते हैं हर बकेट में कुछ पॉइंट पाएं.

skip-gram

#language

एक n-gram, जो मूल शब्दों को छोड़ सकता है (या "स्किप" कर सकता है) संदर्भ का इस्तेमाल किया जाता है, तो हो सकता है कि N शब्द मूल रूप से उनके आस-पास न हों. ज़्यादा देखें ठीक है, "k-skip-n-gram" को एक n-ग्राम होता है, जिसके लिए k शब्द तक हो सकते हैं छोड़ा गया.

उदाहरण के लिए, "The Quick Brown fox" ये 2-ग्राम की हो सकती हैं:

  • "तेज़"
  • "क्विक ब्राउन"
  • "भूरी लोमड़ी"

"1-स्किप-2-ग्राम" शब्दों का एक जोड़ा होता है, जिसमें ज़्यादा से ज़्यादा 1 शब्द हो सकता है. इसलिए, "द क्विक ब्राउन लोमड़ी" इसमें ये 1 स्किप 2 ग्राम हों:

  • "द ब्राउन"
  • "झटपट लोमड़ी"

इसके अलावा, सभी 2-ग्राम 1-स्किप-2-ग्राम भी होते हैं, क्योंकि कम एक शब्द से ज़्यादा स्किप किया जा सकता है.

स्किप-ग्राम की मदद से, किसी शब्द से जुड़े कॉन्टेक्स्ट को बेहतर तरीके से समझा जा सकता है. उदाहरण में, "लोमड़ी" "क्विक" से सीधे तौर पर जुड़ा था डेटा सेट में 1-स्किप-2-ग्राम, लेकिन 2-ग्राम के सेट में नहीं.

स्किप-ग्राम की मदद से ट्रेनिंग करें वर्ड एम्बेड करने के मॉडल.

सॉफ़्टमैक्स

#fundamentals

यह फ़ंक्शन, किसी मल्टी-क्लास क्लासिफ़िकेशन मॉडल. संभावना का योग 1.0 तक. उदाहरण के लिए, नीचे दी गई टेबल से पता चलता है कि सॉफ़्टमैक्स कैसे डिस्ट्रिब्यूशन करता है विभिन्न संभाव्यताएं:

इमेज है... प्रॉबेबिलिटी
कुत्ता 0.85
cat 0.13
घोड़ा .02

सॉफ़्टमैक्स को फ़ुल सॉफ़्टमैक्स भी कहा जाता है.

उम्मीदवार के लिए सैंपलिंग से तुलना करें.

सॉफ़्ट प्रॉम्प्ट ट्यूनिंग

#language
#generativeAI

बड़े लैंग्वेज मॉडल को ट्यून करने की तकनीक किसी विशेष कार्य के लिए, वह भी बिना संसाधन के फ़ाइन-ट्यूनिंग. उन सभी चीज़ों को फिर से ट्रेनिंग देने के बजाय मॉडल में वेट, सॉफ़्ट प्रॉम्प्ट ट्यूनिंग उसी लक्ष्य को पाने के लिए, प्रॉम्प्ट में अपने-आप बदलाव करता है.

टेक्स्ट प्रॉम्प्ट और सॉफ़्ट प्रॉम्प्ट ट्यूनिंग आम तौर पर, प्रॉम्प्ट में अतिरिक्त टोकन एम्बेड करता है और बैकप्रोपैगेशन का इस्तेमाल करें.

एक "हार्ड" प्रॉम्प्ट में टोकन एम्बेड करने के बजाय असल टोकन शामिल होते हैं.

विरल सुविधा

#language
#fundamentals

ऐसी सुविधा जिसकी वैल्यू शून्य या खाली है. उदाहरण के लिए, अगर किसी सुविधा में एक वैल्यू और 0 मिलियन 0 वैल्यू हों कम इसके उलट, सघनता वाली सुविधा में ऐसे मान होते हैं जो मुख्य रूप से शून्य या खाली नहीं हैं.

मशीन लर्निंग में, बहुत सारी सुविधाएं कम काम की होती हैं. कैटगरी के हिसाब से मिलने वाली सुविधाएं, आम तौर पर कम जानकारी वाली होती हैं. उदाहरण के लिए, जंगल में मौजूद पेड़ों की 300 संभावित प्रजातियों में से, सिर्फ़ मैपल ट्री की पहचान कर सकती है. या लाखों में से वीडियो लाइब्रेरी में संभावित वीडियो की संख्या में से एक है. बस "कैसाब्लांका."

मॉडल में, आम तौर पर कम सुविधाएं वन-हॉट एन्कोडिंग का इस्तेमाल करें. अगर वन-हॉट एन्कोडिंग बड़ी है, आपके पास सबसे ऊपर एम्बेडिंग लेयर का इस्तेमाल करने का विकल्प होता है बेहतर परफ़ॉर्मेंस के लिए, वन-हॉट एन्कोडिंग.

स्पैर्स रिप्रज़ेंटेशन

#language
#fundamentals

स्पार्स सुविधा में, शून्य के अलावा अन्य एलिमेंट की सिर्फ़ पोज़िशन को स्टोर करना.

उदाहरण के लिए, मान लें कि species नाम की एक कैटगरी वाली सुविधा, Google Analytics 36 किसी जंगल में किस तरह के पेड़ हैं. इसके अलावा, मान लीजिए कि हर example सिर्फ़ एक प्रजाति की पहचान करता है.

हर उदाहरण में पेड़ की प्रजाति को दिखाने के लिए, वन-हॉट वेक्टर का इस्तेमाल किया जा सकता है. वन-हॉट वेक्टर में एक 1 होगा ( उस उदाहरण में पेड़ों की खास प्रजातियां) और 35 0 ( उस उदाहरण में पेड़ों की 35 प्रजातियां नहीं हैं). इसलिए, का maple कुछ ऐसा दिख सकता है:

ऐसा वेक्टर जिसमें 0 से 23 तक की पोज़िशन 0 होती है
          24 में वैल्यू 1 होती है और 25 से 35 तक की वैल्यू 0 होती है.

इसके अलावा, विरल निरूपण से सिर्फ़ खास प्रजाति का इस्तेमाल किया जाता है. अगर maple, पोज़िशन 24 पर है, तो स्पैर्स रिप्रज़ेंटेशन का maple बस होगा:

24

ध्यान दें कि विरल निरूपण वन-हॉट की तुलना में अधिक संक्षिप्त है प्रतिनिधित्व.

स्पार्स वेक्टर

#fundamentals

ऐसा वेक्टर जिसकी वैल्यू ज़्यादातर शून्य होती हैं. स्पार्स भी देखें सुविधा और स्पैर्सिटी.

कम जानकारी होना

किसी सदिश या आव्यूह में शून्य (या शून्य) पर सेट किए गए तत्वों की संख्या को भाग देने पर मिलने वाली संख्या वेक्टर या मैट्रिक्स में एंट्री की कुल संख्या के हिसाब से फ़िल्टर करें. उदाहरण के लिए, किसी 100-एलिमेंट मैट्रिक्स पर विचार करें, जिसमें 98 सेल में शून्य हो. की कैलकुलेशन कम जानकारी का इस्तेमाल इस तरह किया जाता है:

$$ {\text{sparsity}} = \frac{\text{98}} {\text{100}} = {\text{0.98}} $$

सुविधा की विरलता का मतलब किसी फ़ीचर वेक्टर की विरलता से है; मॉडल की विरलता का मतलब मॉडल के वेट की विरलता से है.

स्पेशल पूलिंग

#image

पूलिंग देखें.

बांटें

#df

डिसिज़न ट्री में, स्थिति.

स्प्लिटर

#df

डिसिज़न ट्री की ट्रेनिंग के दौरान, (और एल्गोरिदम) की तुलना में, हर नोड पर स्थिति.

SPMD

सिंगल प्रोग्राम / एक से ज़्यादा डेटा का छोटा नाम.

वर्गाकार हिंज लॉस

हिंज लॉस का स्क्वेयर. चौकोर हिंज लॉस पेनल्टी कब्ज़ों के सामान्य तौर पर कम होने की तुलना में, यह ज़्यादा तेज़ी से अलग होता है.

वर्ग लॉस

#fundamentals

L2 नुकसान का पर्यायवाची.

कुछ लोगों के लिए ट्रेनिंग

#language

अलग-अलग स्टेज के हिसाब से किसी मॉडल को ट्रेनिंग देने की रणनीति. लक्ष्य कोई भी हो सकता है या तो ट्रेनिंग प्रोसेस को तेज़ करने या मॉडल की क्वालिटी को बेहतर बनाने के लिए.

प्रोग्रेसिव स्टैकिंग अप्रोच का इलस्ट्रेशन नीचे दिखाया गया है:

  • पहले चरण में तीन छिपी हुई लेयर होती हैं और दूसरे चरण में छह छिपी हुई लेयर होती हैं. स्टेज 3 में 12 छिपी हुई लेयर हैं.
  • स्टेज 2, छिपी हुई तीन लेयर में सीखे गए वज़न के साथ ट्रेनिंग शुरू करता है पहला चरण. स्टेज 3, 6 क्लास में सीखे गए वज़न के साथ ट्रेनिंग शुरू करती है स्टेज 2 की छिपी हुई लेयर.

तीन चरण, जिन्हें पहला चरण, दूसरा, और तीसरा लेबल दिया गया है.
          हर चरण में लेयर की अलग-अलग संख्या होती है: पहले चरण में लेयर की संख्या
          3 लेयर, चरण 2 में 6 लेयर और चरण 3 में 12 लेयर हैं.
          पहले चरण में मौजूद तीन लेयर, दूसरे चरण की पहली तीन लेयर बन जाती हैं.
          इसी तरह, चरण 2 में मौजूद 6 लेयर, इस प्रोजेक्ट की पहली 6 लेयर बन जाती हैं
          तीसरा चरण.

पाइपलाइनिंग भी देखें.

राज्य

#rl

रीइन्फ़ोर्समेंट लर्निंग में, मौजूदा पैरामीटर की वैल्यू एनवायरमेंट का कॉन्फ़िगरेशन, जिसका इस्तेमाल एजेंट करता है कोई कार्रवाई चुनें.

स्टेट-ऐक्शन वैल्यू फ़ंक्शन

#rl

Q-फ़ंक्शन का समानार्थी शब्द.

स्टैटिक

#fundamentals

लगातार करने के बजाय एक बार किया गया. स्टैटिक और ऑफ़लाइन शब्दों के समानार्थी शब्द हैं. मशीन में स्टैटिक और ऑफ़लाइन इस्तेमाल के कुछ सामान्य तरीके नीचे दिए गए हैं सीखना:

  • स्टैटिक मॉडल (या ऑफ़लाइन मॉडल) मॉडल को ट्रेनिंग देने के लिए, कुछ समय के लिए इस्तेमाल किया गया.
  • स्टैटिक ट्रेनिंग (या ऑफ़लाइन ट्रेनिंग) एक ऐसी ट्रेनिंग की प्रोसेस है जिसमें स्टैटिक मॉडल के रूप में किया जा सकता है.
  • स्टैटिक अनुमान (या ऑफ़लाइन अनुमान) प्रक्रिया है जिसमें मॉडल एक बार में अनुमानों का बैच जनरेट करता है.

डाइनैमिक से कंट्रास्ट करें.

स्टैटिक अनुमान

#fundamentals

ऑफ़लाइन अनुमान के लिए समानार्थी शब्द.

स्टेशनरिटी

#fundamentals

ऐसी सुविधा जिसकी वैल्यू एक या उससे ज़्यादा डाइमेंशन में नहीं बदलती. ऐसा आम तौर पर, समय के साथ होता है. उदाहरण के लिए, कोई ऐसी सुविधा जिसकी वैल्यू 2021 में एक जैसी दिखती है और साल 2023 में स्टेशनरिटी का जलवा दिखाया गया है.

असल दुनिया में, बहुत कम सुविधाएं स्टेशनरिटी दिखाती हैं. समान सुविधाएं स्थायित्व (जैसे समुद्र का स्तर) में समय के साथ बदलाव होता है.

नॉनस्टेशनरिटी से कंट्रास्ट करें.

चरण

एक बैच का फ़ॉरवर्ड पास और बैकवर्ड पास.

ज़्यादा जानकारी के लिए बैकप्रॉपगेशन देखें .

स्टेप साइज़

सीखने की दर का समानार्थी शब्द.

स्टोकेस्टिक ग्रेडिएंट डिसेंट (एसजीडी)

#fundamentals

एक ग्रेडिएंट डिसेंट एल्गोरिदम, जिसमें बैच साइज़ एक है. दूसरे शब्दों में, SGD ट्रेनिंग समान रूप से ट्रेनिंग सेट से मिली रैंडम वैल्यू.

स्ट्राइड

#image

कॉन्वलूशनल ऑपरेशन या पूलिंग में, इनपुट स्लाइस की अगली सीरीज़ चुनें. उदाहरण के लिए, नीचे दिया गया ऐनिमेशन कॉन्वलूशनल ऑपरेशन के दौरान (1,1) स्ट्राड दिखाता है. इसलिए, इनपुट का अगला स्लाइस, पिछले इनपुट की दाईं ओर एक पोज़िशन से शुरू करता है स्लाइस. जब कार्रवाई दाएं किनारे पर पहुंच जाती है, तो अगला स्लाइस पूरा होता है में बाईं ओर है, लेकिन एक पोज़िशन नीचे है.

इनपुट 5x5 मैट्रिक्स और 3x3 कॉन्वोल्यूशन फ़िल्टर. क्योंकि
     स्ट्राइड (1,1) है, तो कॉन्वोलूशनल फ़िल्टर नौ बार लागू होगा. पहला
     कॉन्वलूशनल स्लाइस, इनपुट के सबसे ऊपर बाएं मौजूद 3x3 सबमैट्रिक्स का आकलन करता है
     मैट्रिक्स. दूसरा स्लाइस, टॉप-बीच के 3x3 हिस्से का आकलन करता है
     सबमैट्रिक्स. तीसरा कॉन्वलूशनल स्लाइस, सबसे ऊपर दाईं ओर मौजूद 3x3 की वैल्यू का आकलन करता है
     सबमैट्रिक्स.  चौथा स्लाइस, बीच के बाएं 3x3 सबमैट्रिक्स का आकलन करता है.
     पांचवा स्लाइस, बीच के 3x3 सबमैट्रिक्स का आकलन करता है. छठा स्लाइस
     मध्य-दाएं 3x3 सबमैट्रिक्स का मूल्यांकन करता है. सातवें स्लाइस से
     सबसे नीचे बाईं ओर मौजूद 3x3 सबमैट्रिक्स.  आठवां स्लाइस,
     बॉटम-मीडियम 3x3 सबमैट्रिक्स. नौवां स्लाइस, सबसे नीचे दाईं ओर मौजूद 3x3 की वैल्यू का आकलन करता है
     सबमैट्रिक्स.

पहले का उदाहरण दो-डाइमेंशन वाले मूव को दिखाता है. अगर इनपुट मैट्रिक्स तीन-डाइमेंशन वाला होता है और चाल भी तीन-डाइमेंशन में होती है.

स्ट्रक्चरल रिस्क मिनिमाइज़ेशन (एसआरएम)

एक ऐसा एल्गोरिदम जो दो लक्ष्यों को संतुलित करता है:

  • सबसे अनुमानित मॉडल बनाने की ज़रूरत. उदाहरण के लिए, सबसे कम नुकसान.
  • मॉडल को जितना हो सके उतना आसान बनाए रखने की ज़रूरत न हो. उदाहरण के लिए, रेगुलराइज़ेशन).

उदाहरण के लिए, ऐसा फ़ंक्शन जो ट्रेनिंग सेट, स्ट्रक्चरल रिस्क कम करने का एल्गोरिदम है.

empirical जोखिम को कम करने से अलग करें.

सबसैंपलिंग

#image

पूलिंग देखें.

सबवर्ड टोकन

#language

भाषा के मॉडल में, एक टोकन जो किसी शब्द की सबस्ट्रिंग, जो पूरा शब्द हो सकता है.

उदाहरण के लिए, "itemize" जैसा कोई शब्द अलग-अलग हिस्सों में बांटे गए "आइटम" (मूल शब्द) और "ize" (एक प्रत्यय), जिनमें से हर एक को खुद ही दिखाया जाता है टोकन. असामान्य शब्दों को सब-वर्ड (सबवर्ड) में बांटने की सुविधा इस्तेमाल करने से शब्द के सामान्य तौर पर इस्तेमाल होने वाले भाषा मॉडल, जैसे कि प्रीफ़िक्स और सफ़िक्स.

इसके उलट, "going" जैसे सामान्य शब्द हो सकता है कि वह बंटा न हो और जिसे एक टोकन से दिखाया जाता है.

सारांश

#TensorFlow

TensorFlow में, किसी खास step. इसका इस्तेमाल, आम तौर पर ट्रेनिंग के दौरान मॉडल मेट्रिक को ट्रैक करने के लिए किया जाता है.

सुपरवाइज़्ड मशीन लर्निंग

#fundamentals

सुविधाओं की मदद से किसी मॉडल को ट्रेनिंग देना और उनके संबंधित लेबल. सुपरवाइज़्ड मशीन लर्निंग सवालों के सेट का अध्ययन करके किसी विषय को सीखना और उनके संबंधित उत्तर. सवालों और उनके बीच के अंतर को समझने के बाद, हैं, तो छात्र-छात्राएं नए सवालों के जवाब (पहले कभी नहीं देखे गए) दे सकते हैं एक ही विषय से जुड़े सवाल पूछे जा सकते हैं.

तुलना करें अनसुपरवाइज़्ड मशीन लर्निंग.

एआई की मदद से जनरेट की गई सुविधा

#fundamentals

ऐसी सुविधा जो इनपुट सुविधाओं में मौजूद नहीं है, लेकिन वे एक या एक से ज़्यादा एलिमेंट का इस्तेमाल करते हैं. एआई की मदद से जनरेट किए गए फ़ीचर बनाने के तरीके इसमें नीचे दी गई चीज़ें शामिल होती हैं:

  • रेंज बिन में लगातार चलने वाली सुविधा बकेट करना.
  • सुविधा क्रॉस बनाना.
  • एक सुविधा की वैल्यू को अन्य सुविधा की वैल्यू से गुणा करना या भाग देना या अकेले न लड़ें. उदाहरण के लिए, अगर a और b इनपुट सुविधाएं हैं, तो एआई से जनरेट की गई सुविधाओं के उदाहरण यहां दिए गए हैं:
    • ऐबी
    • 2
  • किसी सुविधा की वैल्यू में ट्रांसेंडेंटल फ़ंक्शन लागू करना. उदाहरण के लिए, अगर c कोई इनपुट सुविधा है, तो सिंथेटिक सुविधाओं के उदाहरण नीचे दिए गए हैं:
    • साइन(सी)
    • ln(c)

नॉर्मलाइज़ या स्केलिंग करके बनाई गई सुविधाएं सिर्फ़ एआई की मदद से काम करने वाले फ़ीचर नहीं माने जाते.

T

T5

#language

टेक्स्ट-टू-टेक्स्ट ट्रांसफ़र लर्निंग मॉडल इसने पेश किया साल 2020 में Google का एआई. T5 एक एन्कोडर-डीकोडर मॉडल है, जो Transformer आर्किटेक्चर, जिसे बहुत बड़ी डेटासेट. यह कई तरह के नैचुरल लैंग्वेज प्रोसेसिंग टास्क में असरदार है, जैसे, टेक्स्ट जनरेट करना, भाषाओं का अनुवाद करना, और बातचीत करने का तरीका बताया गया है.

"टेक्स्ट-टू-टेक्स्ट ट्रांसफ़र ट्रांसफ़ॉर्मर" में पांच T5 गेम का नाम T5 है.

टी5एक्स

#language

यह एक ओपन सोर्स मशीन लर्निंग फ़्रेमवर्क है बड़े पैमाने पर नैचुरल लैंग्वेज प्रोसेसिंग को बनाने और ट्रेन करने के लिए (एनएलपी) मॉडल. T5 को T5X कोड बेस पर लागू किया जाता है (जो इसे JAX और Flax पर बनाया गया है).

टेबल में क्यू-लर्निंग

#rl

रीइन्फ़ोर्समेंट लर्निंग में, लागू करने से डेटा सेव करने के लिए, टेबल का इस्तेमाल करके Q-learning इनके हर कॉम्बिनेशन के लिए, Q-फ़ंक्शन स्थिति और कार्रवाई.

टारगेट

label का समानार्थी शब्द.

टारगेट नेटवर्क

#rl

डीप क्यू-लर्निंग में, एक ऐसा न्यूरल नेटवर्क है जो स्टेबल है मुख्य न्यूरल नेटवर्क का अनुमान, जिसमें मुख्य न्यूरल नेटवर्क Q-फ़ंक्शन या नीति लागू करता है. इसके बाद, टारगेट के अनुमानित Q-वैल्यू के आधार पर मुख्य नेटवर्क को ट्रेनिंग दी जा सकती है नेटवर्क. इसलिए, आप उस फ़ीडबैक लूप को रोक सकते हैं जो तब होता है, जब मुख्य नेटवर्क अपने अनुमानित Q-वैल्यू के आधार पर ट्रेनिंग लेता है. इस सुझाव से बचने के लिए, ट्रेनिंग की स्थिरता बढ़ जाती है.

टास्क

एक ऐसी समस्या जिसे मशीन लर्निंग की तकनीकों की मदद से हल किया जा सकता है, जैसे:

तापमान

#language
#image
#generativeAI

ऐसा हाइपर पैरामीटर जो रैंडमनेस को कंट्रोल करता है होता है. ज़्यादा तापमान से नतीजे अलग-अलग दिखते हैं, जबकि कम तापमान से कम रैंडम आउटपुट मिलता है.

सबसे अच्छा तापमान चुनना, अलग-अलग तरह के ऐप्लिकेशन और मॉडल के आउटपुट की पसंदीदा प्रॉपर्टी. उदाहरण के लिए, आपको ऐसा ऐप्लिकेशन बनाते समय तापमान बढ़ा सकता है जो क्रिएटिव आउटपुट जनरेट करता है. इसके उलट, शायद आप तापमान को कम करेंगे जब एक ऐसा मॉडल बनाया जाता है जो इमेज या टेक्स्ट की कैटगरी तय करता है, मॉडल कितना सटीक और एक जैसा है.

तापमान का इस्तेमाल अक्सर softmax के साथ किया जाता है.

टेम्पोरल डेटा

अलग-अलग समय पर रिकॉर्ड किया गया डेटा. उदाहरण के लिए, सर्दियों के कोट की बिक्री साल के हर दिन के लिए रिकॉर्ड किया गया, अस्थायी डेटा होगा.

Tensor

#TensorFlow

TensorFlow प्रोग्राम में प्राइमरी डेटा स्ट्रक्चर. टेन्सर N-डाइमेंशन वाले होते हैं (जहां N बहुत बड़ी हो सकती है) डेटा स्ट्रक्चर, सबसे आम तौर पर स्केलर, वेक्टर, देखा जा सकता है. Tensor के एलिमेंट में पूर्णांक, फ़्लोटिंग-पॉइंट हो सकते हैं, या स्ट्रिंग वैल्यू.

TensorBoard

#TensorFlow

यह डैशबोर्ड, किसी एक या आगे के चरण के दौरान सेव की गई जानकारी दिखाता है TensorFlow के और प्रोग्राम हैं.

TensorFlow

#TensorFlow

एक बड़ा, डिस्ट्रिब्यूटेड, मशीन लर्निंग प्लैटफ़ॉर्म. इस शब्द का यह भी मतलब है TensorFlow स्टैक में बेस एपीआई लेयर, जो सामान्य कंप्यूटेशन की मदद से काम करती है डेटाफ़्लो ग्राफ़ पर लागू किया जा सकता है.

हालांकि, TensorFlow का इस्तेमाल मुख्य रूप से मशीन लर्निंग के लिए किया जाता है, लेकिन आप यह भी इस्तेमाल कर सकते हैं ऐसे गैर-एमएल टास्क के लिए TensorFlow जिनका इस्तेमाल करके संख्या की गणना की जाती है डेटाफ़्लो ग्राफ़.

TensorFlow प्लेग्राउंड

#TensorFlow

एक ऐसा प्रोग्राम जो यह दिखाता है कि दुनिया भर हाइपर पैरामीटर, मॉडल पर असर डालते हैं (मुख्य तौर पर न्यूरल नेटवर्क) ट्रेनिंग. इस पर जाएं http://playground.tensorflow.org TensorFlow Playground के साथ एक्सपेरिमेंट करने के लिए बनाया गया.

TensorFlow सर्विंग

#TensorFlow

प्रोडक्शन में प्रशिक्षित मॉडल को डिप्लॉय करने का प्लैटफ़ॉर्म.

टेन्सर प्रोसेसिंग यूनिट (टीपीयू)

#TensorFlow
#GoogleCloud

एक ऐप्लिकेशन-विशिष्ट इंटिग्रेटेड सर्किट (एएसआईसी) जो मशीन लर्निंग वर्कलोड की परफ़ॉर्मेंस. इन एएसआईसी को इस तरह से डिप्लॉय किया गया है: TPU डिवाइस पर कई TPU चिप.

Tensor की रैंक

#TensorFlow

रैंक (टेन्सर) देखें.

टेन्सर का आकार

#TensorFlow

अलग-अलग डाइमेंशन में मौजूद Tensor के एलिमेंट की संख्या. उदाहरण के लिए, [5, 10] टेन्सर का आकार एक डाइमेंशन में 5 और 10 है अन्य में.

टेन्सर का साइज़

#TensorFlow

किसी Tensor में मौजूद स्केलर की कुल संख्या. उदाहरण के लिए, [5, 10] टेन्सर का साइज़ 50 है.

TensorStore

बेहतर तरीके से पढ़ने और पढ़ने के लिए एक लाइब्रेरी और बहुत बड़ी संख्या में डाइमेंशन (कई डाइमेंशन) वाला कलेक्शन तैयार करता है.

समझौता खत्म करने की स्थिति

#rl

रीइन्फ़ोर्समेंट लर्निंग में, वे शर्तें जो यह तय कर सकते हैं कि कोई एपिसोड कब खत्म होगा. जैसे, एजेंट के पास पहुंचने का समय किसी राज्य या स्थिति के ट्रांज़िशन की सीमा से ज़्यादा हो. उदाहरण के लिए, tic-tac-toe में (साथ ही नॉन्स और क्रॉस के नाम से जाना जाता है), तो एपिसोड तब खत्म हो जाता है, जब कोई खिलाड़ी तीन लगातार स्पेस या सभी स्पेस मार्क होने पर.

टेस्ट

#df

डिसिज़न ट्री में, स्थिति.

टेस्ट में नुकसान

#fundamentals

यह मेट्रिक है, जो किसी मॉडल की नुकसान के बारे में बताती है टेस्ट का सेट. कोई मॉडल बनाते समय, आपको आम तौर पर, टेस्ट में होने वाले नुकसान को कम करने की कोशिश करें. इसकी वजह यह है कि टेस्ट में होने वाली कमी ट्रेनिंग में कमी होने की तुलना में, बेहतर क्वालिटी वाला सिग्नल या पुष्टि न हो पाने की समस्या कम है.

टेस्ट या ट्रेनिंग खोने के बीच ज़्यादा अंतर या कभी-कभी पुष्टि न होना का सुझाव देती है कि आपको रेगुलराइज़ेशन रेट.

टेस्ट सेट

जांच के लिए रिज़र्व किए गए डेटासेट का एक सबसेट ट्रेन किया गया मॉडल.

पारंपरिक तौर पर, डेटासेट में उदाहरणों को इन तीन कैटगरी में बांटा जाता है अलग-अलग सबसेट:

डेटासेट में दिया गया हर उदाहरण, पहले के किसी एक सबसेट से ही जुड़ा होना चाहिए. उदाहरण के लिए, कोई एक उदाहरण दोनों ट्रेनिंग सेट और टेस्ट सेट.

ट्रेनिंग सेट और पुष्टि करने वाले सेट, दोनों किसी मॉडल को ट्रेनिंग देने से जुड़े होते हैं. टेस्ट सेट, सीधे तौर पर ट्रेनिंग से जुड़ा हुआ नहीं है. टेस्ट में कमी का मतलब है, कम पक्षपात करने वाली और ज़्यादा क्वालिटी वाली मेट्रिक ट्रेनिंग लॉस या पुष्टि न होना.

टेक्स्ट स्पैन

#language

यह अरे इंडेक्स स्पैन, जो किसी टेक्स्ट स्ट्रिंग के किसी खास सब-सेक्शन से जुड़ा होता है. उदाहरण के लिए, Python स्ट्रिंग s="Be good now" में good शब्द इस्तेमाल किया जा रहा है टेक्स्ट में 3 से 6 तक का समय शामिल करें.

tf.Example

#TensorFlow

एक मानक प्रोटोकॉल बफ़र का इस्तेमाल करें.

tf.keras

#TensorFlow

Google Analytics में इंटिग्रेट किए गए Keras को लागू करना TensorFlow.

थ्रेशोल्ड (डिसिज़न ट्री के लिए)

#df

ऐक्सिस की अलाइन स्थिति में, वह वैल्यू सुविधा की तुलना की जा रही है. उदाहरण के लिए, 75 थ्रेशोल्ड की वैल्यू नीचे दी गई है:

grade >= 75
अभी तक किसी भी व्यक्ति ने चेक इन नहीं किया है

टाइम सीरीज़ का विश्लेषण

#clustering

मशीन लर्निंग और आंकड़ों का एक सबफ़ील्ड जो विश्लेषण करता है अस्थायी डेटा. कई तरह की मशीन लर्निंग समस्याओं के लिए टाइम सीरीज़ विश्लेषण करना ज़रूरी होता है. इसमें क्लासिफ़िकेशन, क्लस्टरिंग, और गड़बड़ी की पहचान करना शामिल है. उदाहरण के लिए, टाइम सीरीज़ विश्लेषण, ताकि आने वाले समय में महीने के हिसाब से विंटर कोट की बिक्री का अनुमान लगाया जा सके जो बिक्री के पुराने डेटा पर आधारित होते हैं.

टाइमस्टेप

#seq

एक "अनरोल किया गया" एक सेल में बार-बार होने वाला न्यूरल नेटवर्क. उदाहरण के लिए, नीचे दिए गए डायग्राम में तीन टाइम स्टेप दिखाए गए हैं. t-1, t, और t+1 सबस्क्रिप्ट):

बार-बार होने वाले न्यूरल नेटवर्क में तीन टाइमस्टेप. इसका आउटपुट
          पहला टाइमस्टेप, दूसरे टाइमस्टेप के लिए इनपुट बन जाता है. आउटपुट
          के दूसरे टाइमस्टेप का इनपुट तीसरे टाइमस्टेप के लिए इनपुट बन जाता है.

टोकन

#language

भाषा के मॉडल में, इस मॉडल की ऐटॉमिक यूनिट तैयार करने और उनके लिए अनुमान लगाने में मदद करता है. टोकन आम तौर पर, फ़ॉलो किया जा रहा है:

  • कोई शब्द—उदाहरण के लिए, वाक्यांश "कुत्तों को बिल्लियों जैसा" इसमें तीन शब्द हैं टोकन: "कुत्ते", "पसंद", और "बिल्लियां".
  • कोई वर्ण—उदाहरण के लिए, वाक्यांश "बाइक मछली" नौ शामिल हैं वर्ण टोकन. (ध्यान दें कि खाली जगह को एक टोकन के तौर पर गिना जाता है.)
  • सबवर्ड—जिसमें एक शब्द एक टोकन या एक से ज़्यादा टोकन हो सकता है. सबवर्ड में रूट शब्द, प्रीफ़िक्स या सफ़िक्स होता है. उदाहरण के लिए, अगर भाषा मॉडल में सबवर्ड का इस्तेमाल टोकन के तौर पर किया जाता है, तो हो सकता है कि आपको "कुत्ते" शब्द दिखे दो टोकन के रूप में (रूट शब्द "डॉग" और बहुवचन सफ़िक्स "s"). वही हो सकता है कि भाषा मॉडल में एक शब्द "लंबा" दिखे दो सबवर्ड के तौर पर ( मूल शब्द "tall" और प्रत्यय "er").

भाषा मॉडल के बाहर के डोमेन के टोकन, ऐटॉमिक यूनिट. उदाहरण के लिए, कंप्यूटर विज़न में टोकन, एक सबसेट हो सकता है इमेज होती है.

Tower

डीप न्यूरल नेटवर्क का एक कॉम्पोनेंट, जो एक डीप न्यूरल नेटवर्क था. कुछ मामलों में, हर टावर और वे टावर तब तक अलग रहते हैं, जब तक आउटपुट को एक फ़ाइनल लेयर में जोड़ा जाता है. अन्य मामलों में, (उदाहरण के लिए, इसका एन्कोडर और डिकोडर टावर कई ट्रांसफ़ॉर्मर), टावर के क्रॉस-कनेक्शन अलग-अलग होते हैं एक-दूसरे को जानकारी देते हैं.

टीपीयू (TPU)

#TensorFlow
#GoogleCloud

टेनसर प्रोसेसिंग यूनिट का छोटा नाम.

TPU चिप

#TensorFlow
#GoogleCloud

चिप में ज़्यादा बैंडविड्थ वाली मेमोरी के साथ, प्रोग्राम करने लायक लीनियर अलजेब्रा ऐक्सेलरेटर जिसे मशीन लर्निंग के वर्कलोड के लिए ऑप्टिमाइज़ किया गया है. TPU डिवाइस पर कई TPU चिप डिप्लॉय किए गए हैं.

TPU डिवाइस

#TensorFlow
#GoogleCloud

कई TPU चिप वाला प्रिंट किया गया सर्किट बोर्ड (पीसीबी), ज़्यादा बैंडविथ वाले नेटवर्क इंटरफ़ेस, और सिस्टम कूलिंग हार्डवेयर की जानकारी शामिल है.

TPU मास्टर

#TensorFlow
#GoogleCloud

सेंट्रल कोऑर्डिनेशन प्रोसेस, एक होस्ट मशीन पर चल रही होती है जो और उसे डेटा, नतीजे, प्रोग्राम, परफ़ॉर्मेंस, और सिस्टम की हेल्थ की जानकारी मिलती है TPU वर्कर को. TPU मास्टर सेटअप को भी मैनेज करता है और TPU डिवाइसों को बंद किया जा सकता है.

TPU नोड

#TensorFlow
#GoogleCloud

Google Cloud पर एक TPU संसाधन, जो TPU टाइप. TPU नोड आपके VPC नेटवर्क पीयर VPC नेटवर्क. TPU नोड, ऐसे संसाधन होते हैं जिनके बारे में Cloud TPU API.

टीपीयू (TPU) पॉड

#TensorFlow
#GoogleCloud

Google में TPU डिवाइसों का खास कॉन्फ़िगरेशन डेटा सेंटर. TPU पॉड में मौजूद सभी डिवाइस, एक-दूसरे से कनेक्ट होते हैं हाई-स्पीड नेटवर्क पर काम किया है. TPU पॉड, TPU डिवाइस, TPU के किसी खास वर्शन के लिए उपलब्ध हैं.

TPU संसाधन

#TensorFlow
#GoogleCloud

Google Cloud पर मौजूद ऐसी TPU इकाई जिसे आप बनाया जाता है, मैनेज किया जाता है या इस्तेमाल किया जाता है. इसके लिए उदाहरण के लिए, TPU नोड और TPU टाइप TPU संसाधन.

TPU स्लाइस

#TensorFlow
#GoogleCloud

TPU स्लाइस, इन TPU डिवाइसों का फ़्रैक्शनल हिस्सा होता है TPU पॉड. TPU स्लाइस में मौजूद सभी डिवाइस कनेक्ट हैं एक-दूसरे से कनेक्ट करने के लिए, हाई-स्पीड नेटवर्क इस्तेमाल किया जाता है.

TPU टाइप

#TensorFlow
#GoogleCloud

एक या उससे ज़्यादा TPU डिवाइसों का कॉन्फ़िगरेशन TPU हार्डवेयर का वर्शन. बनाते समय, TPU टाइप चुना जाता है Google Cloud पर TPU नोड. उदाहरण के लिए, v2-8 TPU टाइप, 8 कोर वाला सिंगल TPU v2 डिवाइस है. v3-2048 TPU टाइप में 256 होते हैं नेटवर्क वाले TPU v3 डिवाइस और कुल 2048 कोर. TPU के टाइप एक संसाधन हैं में परिभाषित किया गया है Cloud TPU API.

TPU वर्कर

#TensorFlow
#GoogleCloud

यह एक ऐसी प्रोसेस है जो होस्ट मशीन पर चलती है और मशीन लर्निंग प्रोग्राम को एक्ज़ीक्यूट करती है TPU डिवाइसों पर.

ट्रेनिंग

#fundamentals

सबसे सही पैरामीटर तय करने की प्रोसेस (वेट और पक्षपात) से बनाया गया है, जिसमें एक मॉडल शामिल है. ट्रेनिंग के दौरान, सिस्टम उदाहरण देखें और पैरामीटर को धीरे-धीरे अडजस्ट करें. ट्रेनिंग में हर एक का इस्तेमाल होता है उदाहरण के लिए, कुछ समय से लेकर करोड़ों बार.

ट्रेनिंग नहीं मिली

#fundamentals

एक मेट्रिक जो मॉडल के लॉस को दिखाती हुई खास तरह की ट्रेनिंग के लिए डिज़ाइन किया गया है. उदाहरण के लिए, मान लें कि हानि फलन मीन स्क्वेयर्ड एरर होता है. शायद ट्रेनिंग में कमी (मीन 10वीं इटरेशन के लिए स्क्वेयर्ड एरर) 2.2 है और 100वां दोहराव 1.9 है.

लॉस कर्व में ट्रेनिंग में हुए नुकसान की तुलना, बार-बार किया जा सकता है. लॉस कर्व से ट्रेनिंग के बारे में ये संकेत मिलते हैं:

  • नीचे की ओर वाले स्लोप का मतलब है कि मॉडल में सुधार हो रहा है.
  • ऊपर की ओर वाले स्लोप का मतलब है कि मॉडल बदतर हो रहा है.
  • सपाट ढलान का मतलब है कि मॉडल, कन्वर्जेंस.

उदाहरण के लिए, नीचे दी गई टेबल में लॉस कर्व की परफ़ॉर्मेंस का अनुमान लगाया गया है. दिखाता है:

  • शुरुआती दौर में इसका काफ़ी नीचे की ओर वाला ढलान, मॉडल में तेज़ी से सुधार हुआ.
  • ढलान का एक धीरे-धीरे फ़्लैट (लेकिन नीचे की ओर) होता होना, जब तक कि वह अंत के करीब न आ जाए है, जिसमें कुछ हद तक मॉडल में सुधार होता रहता है. यह शुरुआती दोहराव के दौरान धीमी रफ़्तार पर काम करता है.
  • ट्रेनिंग के खत्म होने की तरफ़ का सपाट ढलान, जिससे दर्शकों को एक ही जगह के खिलाड़ी में शामिल होने का सुझाव मिलता है.

ट्रेनिंग में नुकसान बनाम उसे बार-बार करने का प्लॉट. इस लॉस कर्व से शुरू होता है
     ज़्यादा ढलान वाला है. ढलान धीरे-धीरे तब तक समतल होती जाती है, जब तक
     स्लोप शून्य हो जाता है.

वैसे तो ट्रेनिंग छोड़ना ज़रूरी है, लेकिन यह भी देखें सामान्य जानकारी.

ट्रेनिंग और ब्राउज़र में वेब पेज खोल