मशीन लर्निंग ग्लॉसरी: जनरेटिव एआई

इस पेज में, जनरेटिव एआई की ग्लॉसरी वाले शब्द मौजूद हैं. शब्दावली के सभी शब्दों के लिए, यहां क्लिक करें.

जवाब

ऑटो-रिग्रेसिव मॉडल

#language
#image
#generativeAI

ऐसा model जो अपने पिछले अनुमानों के आधार पर, किसी अनुमान का अनुमान लगाता है. उदाहरण के लिए, ऑटो-रिग्रेसिव लैंग्वेज मॉडल, पहले बताए गए टोकन के आधार पर अगले टोकन का अनुमान लगाते हैं. ट्रांसफ़ॉर्मर पर आधारित बड़े लैंग्वेज मॉडल, ऑटो-रिग्रेसिव होते हैं.

वहीं दूसरी ओर, GAN पर आधारित इमेज मॉडल आम तौर पर ऑटो-रिग्रेसिव नहीं होते, क्योंकि वे एक ही फ़ॉरवर्ड-पास में इमेज जनरेट करते हैं और बार-बार ऐसा नहीं करते. हालांकि, कुछ इमेज जनरेट करने वाले मॉडल, ऑटो-रिग्रेसिव होते हैं, क्योंकि वे चरणों में इमेज जनरेट करते हैं.

C

सोच-विचार

#language
#generativeAI

प्रॉम्प्ट इंजीनियरिंग की एक ऐसी तकनीक जो बड़े लैंग्वेज मॉडल (एलएलएम) को इसकी वजह बताने के लिए, सिलसिलेवार तरीके से बताती है. उदाहरण के लिए, इस निर्देश पर ध्यान दें और दूसरे वाक्य पर खास ध्यान दें:

एक कार में 0 से 60 मील प्रति घंटे की रफ़्तार 7 सेकंड में चलने पर, एक ड्राइवर को कितने ग्राम फ़ोर्स का अनुभव होगा? जवाब में सभी ज़रूरी गणनाएं दिखाएं.

एलएलएम के जवाब शायद:

  • फ़िज़िक्स के फ़ॉर्मूले को क्रम से दिखाएं और 0, 60, और 7 की वैल्यू को सही जगहों पर डालें.
  • बताएं कि इन फ़ॉर्मूला को क्यों चुना गया और अलग-अलग वैरिएबल का क्या मतलब है.

अपने आइडिया पर ध्यान देने से, एलएलएम को सभी कैलकुलेशन करने के लिए मजबूर किया जाता है. इससे एलएलएम को ज़्यादा सटीक जवाब मिल सकता है. इसके अलावा, सोच-विचार करने की सुविधा से उपयोगकर्ता को एलएलएम के चरणों की जांच करने में मदद मिलती है, ताकि यह तय किया जा सके कि उसका जवाब सही है या नहीं.

D

सीधे तौर पर सूचना देना

#language
#generativeAI

ज़ीरो-शॉट प्रॉम्प्टिंग का समानार्थी शब्द.

डिस्टिलेशन

#generativeAI

एक model (जिसे model कहा जाता है) के साइज़ को कम करके एक छोटे मॉडल (जिसे model भी कहा जाता है) का साइज़ छोटा करने की प्रोसेस होती है. इससे ओरिजनल मॉडल के अनुमान पूरी तरह से मिलते-जुलते होते हैं. डिस्टिलेशन आपके लिए बहुत काम का है, क्योंकि बड़े मॉडल (शिक्षक) की तुलना में छोटे मॉडल को दो मुख्य फ़ायदे मिलते हैं:

  • तेज़ अनुमान का समय
  • कम मेमोरी और ऊर्जा की खपत

हालांकि, आम तौर पर छात्र/छात्रा के अनुमान उतने अच्छे नहीं होते जितने शिक्षक के.

डिस्टिलेशन से, छात्र/छात्रा के मॉडल को ट्रेनिंग मिलती है, ताकि वह लॉस फ़ंक्शन को कम कर सके. यह छात्र/छात्रा और शिक्षक के मॉडल के अनुमानों के आउटपुट के अंतर के आधार पर अंतर को कम करता है.

डिस्टिलेशन की तुलना और कंट्रास्ट डिस्टिलेशन की मदद से, इन शब्दों का इस्तेमाल करें:

F

कुछ-एक शॉट

#language
#generativeAI

कोई ऐसा प्रॉम्प्ट जिसमें एक से ज़्यादा ("कुछ") उदाहरण हों. इससे पता चलता है कि बड़े लैंग्वेज मॉडल को कैसे जवाब देना चाहिए. उदाहरण के लिए, नीचे दिए गए लंबे प्रॉम्प्ट में दो उदाहरण शामिल हैं. इसमें क्वेरी का जवाब देने का तरीका बताने वाला एक बड़ा लैंग्वेज मॉडल दिखाया गया है.

एक प्रॉम्प्ट के हिस्से ज़रूरी जानकारी
किसी खास देश की आधिकारिक मुद्रा क्या है? आपको एलएलएम से किस सवाल का जवाब चाहिए.
फ़्रांस: EUR एक उदाहरण.
यूनाइटेड किंगडम: GBP एक अन्य उदाहरण.
भारत: असल क्वेरी.

आम तौर पर, ज़ीरो-शॉट प्रॉम्प्ट और एक शॉट में सूचना देने की सुविधा के मुकाबले, कुछ ही शॉट में सीखने के ज़्यादा नतीजे मिलते हैं. हालांकि, कुछ ही शॉट के लिए प्रॉम्प्ट भेजने के लिए लंबे प्रॉम्प्ट की ज़रूरत होती है.

कुछ शॉट में निर्देश देना, कुछ-कुछ सीखने का एक तरीका है. यह प्रॉम्प्ट पर आधारित शिक्षा पर लागू होता है.

फ़ाइन ट्यूनिंग

#language
#image
#generativeAI

दूसरा, टास्क के हिसाब से दिया जाने वाला ट्रेनिंग पास. इसे पहले से ट्रेनिंग दिए गए मॉडल पर परफ़ॉर्म किया जाता है, ताकि किसी खास इस्तेमाल के उदाहरण के लिए इसके पैरामीटर को बेहतर बनाया जा सके. उदाहरण के लिए, कुछ बड़े लैंग्वेज मॉडल के लिए ट्रेनिंग का पूरा सीक्वेंस इस तरह है:

  1. ट्रेनिंग शुरू करने से पहले: एक बड़े सामान्य डेटासेट पर बड़े भाषा मॉडल को ट्रेनिंग दें, जैसे कि अंग्रेज़ी भाषा के सभी Wikipedia पेज.
  2. फ़ाइन ट्यूनिंग: पहले से ट्रेनिंग वाले मॉडल को कोई खास टास्क करने के लिए ट्रेनिंग दें. जैसे, स्वास्थ्य से जुड़ी क्वेरी का जवाब देना. आम तौर पर, किसी खास टास्क पर फ़ोकस करने वाले सैकड़ों या हज़ारों उदाहरण शामिल होते हैं.

एक अन्य उदाहरण में, बड़े इमेज मॉडल के लिए ट्रेनिंग का पूरा क्रम इस तरह है:

  1. प्री-ट्रेनिंग: एक बड़े सामान्य इमेज डेटासेट पर एक बड़े इमेज मॉडल को ट्रेनिंग दें, जैसे कि 'विकिमीडिया कॉमन्स' में मौजूद सभी इमेज.
  2. फ़ाइन ट्यूनिंग: पहले से ट्रेनिंग वाले मॉडल को कोई खास टास्क करने के लिए ट्रेनिंग दें. जैसे, ओरका की इमेज जनरेट करना.

फ़ाइन-ट्यूनिंग के लिए नीचे दी गई रणनीतियों का कोई भी कॉम्बिनेशन लागू हो सकता है:

  • पहले से ट्रेनिंग दिए गए मॉडल के सभी मौजूदा पैरामीटर में बदलाव करना. इसे कभी-कभी फ़ुल फ़ाइन-ट्यूनिंग भी कहा जाता है.
  • पहले से ट्रेनिंग वाले मॉडल के सिर्फ़ कुछ मौजूदा पैरामीटर में बदलाव करता है (आम तौर पर, आउटपुट लेयर के सबसे करीब लेयर). अन्य मौजूदा पैरामीटर में कोई बदलाव नहीं करता है (आम तौर पर, लेयर इनपुट लेयर के आस-पास होती हैं). पैरामीटर की बेहतर ट्यूनिंग देखें.
  • ज़्यादा लेयर जोड़ना, आम तौर पर आउटपुट लेयर के सबसे करीब मौजूद लेयर के ऊपर.

फ़ाइन-ट्यूनिंग, ट्रांसफ़र लर्निंग का एक तरीका है. इसलिए, फ़ाइन-ट्यूनिंग के लिए नुकसान पहुंचाने वाले किसी अलग फ़ंक्शन या मॉडल टाइप का इस्तेमाल किया जा सकता है, जो पहले से ट्रेनिंग वाले मॉडल को ट्रेनिंग देने वाले फ़ंक्शन से अलग होता है. उदाहरण के लिए, आपके पास पहले से ट्रेनिंग वाले बड़े इमेज मॉडल को इस तरह से बेहतर बनाने का विकल्प है कि रिग्रेशन मॉडल बनाया जा सके. इससे इनपुट इमेज में पक्षियों की संख्या दिखाई जाएगी.

इन शब्दों से तुलना करें और इनकी तुलना करें:

G

जनरेटिव एआई

#language
#image
#generativeAI

औपचारिक परिभाषा वाला कोई उभरता हुआ फ़ील्ड. हालांकि, ज़्यादातर विशेषज्ञों का मानना है कि जनरेटिव एआई (AI) मॉडल, इस तरह का कॉन्टेंट बना ("जनरेट") कर सकते हैं.

  • जटिल
  • अनुकूल
  • मूल

उदाहरण के लिए, जनरेटिव एआई (AI) मॉडल से मुश्किल निबंध या इमेज बनाई जा सकती हैं.

कुछ पुरानी टेक्नोलॉजी भी ओरिजनल और एक जैसा कॉन्टेंट जनरेट कर सकती हैं. इन टेक्नोलॉजी में, LSTM और RNN शामिल हैं. कुछ विशेषज्ञ इन पुरानी टेक्नोलॉजी को जनरेटिव एआई मानते हैं. हालांकि, कुछ का मानना है कि असल में जनरेटिव एआई को पहले की टेक्नोलॉजी के मुकाबले ज़्यादा मुश्किल आउटपुट की ज़रूरत होती है.

अनुमानित एमएल का कंट्रास्ट.

I

संदर्भ के हिसाब से सीखना

#language
#generativeAI

कुछ शॉट की सूचना का समानार्थी शब्द.

निर्देश ट्यूनिंग

#generativeAI

यह फ़ाइन-ट्यूनिंग का एक तरीका है, जो दिए गए निर्देशों का पालन करने में, जनरेटिव एआई मॉडल की मदद करता है. निर्देश ट्यूनिंग में किसी मॉडल को निर्देशों की सीरीज़ की ट्रेनिंग दी जाती है. आम तौर पर, इसमें कई तरह के टास्क शामिल होते हैं. बाद में, निर्देशों से ट्यून करने वाला यह मॉडल कई तरह के कामों के लिए शून्य शॉट के लिए काम के जवाब जनरेट करता है.

इनसे तुलना करें और इनकी तुलना करें:

O

वन-शॉट प्रॉम्प्टिंग

#language
#generativeAI

ऐसा प्रॉम्प्ट जिसमें एक उदाहरण दिया गया हो. इससे पता चलता है कि बड़े भाषा के मॉडल को कैसे जवाब देना चाहिए. उदाहरण के लिए, इस प्रॉम्प्ट में एक बड़े लैंग्वेज मॉडल का उदाहरण दिया गया है कि इसे किसी क्वेरी का जवाब कैसे देना चाहिए.

एक प्रॉम्प्ट के हिस्से ज़रूरी जानकारी
किसी खास देश की आधिकारिक मुद्रा क्या है? आपको एलएलएम से किस सवाल का जवाब चाहिए.
फ़्रांस: EUR एक उदाहरण.
भारत: असल क्वेरी.

एक बार में जवाब देने की सुविधा की तुलना इन शब्दों से करें:

P

पैरामीटर की बेहतर ट्यूनिंग

#language
#generativeAI

यह एक ऐसा सेट है जिसमें पूरी तरह फ़ाइन ट्यूनिंग करने के मुकाबले, पहले से ट्रेनिंग दिए गए लैंग्वेज मॉडल (पीएलएम), को फ़ाइन-ट्यून करने की तकनीकें हैं. पैरामीटर की मदद से, आम तौर पर कम पैरामीटर को बेहतर बनाया जाता है. हालांकि, आम तौर पर बड़ा लैंग्वेज मॉडल बनता है जो पूरी तरह से ट्यूनिंग से बने बड़े लैंग्वेज मॉडल की तरह ही अच्छा परफ़ॉर्म करता है.

इनसे तुलना करें और पैरामीटर की कम खपत करने पर बेहतर ट्यूनिंग करें:

पैरामीटर की कम खपत करने वाली ट्यूनिंग को पैरामीटर की बेहतर फ़ाइन-ट्यूनिंग भी कहा जाता है.

पीएलएम

#language
#generativeAI

पहले से ट्रेन किए गए भाषा मॉडल का छोटा नाम.

पहले से ट्रेनिंग वाला मॉडल

#language
#image
#generativeAI

ऐसे मॉडल या मॉडल कॉम्पोनेंट जिन्हें पहले ही ट्रेनिंग दी जा चुकी है. जैसे, एम्बेड करने वाला वेक्टर. कभी-कभी, आपको पहले से ट्रेनिंग दिए गए एम्बेडिंग वेक्टर को न्यूरल नेटवर्क में फ़ीड करना होगा. अन्य बार, आपका मॉडल पहले से प्रशिक्षित एम्बेड करने पर निर्भर होने के बजाय, एम्बेड किए जाने वाले वेक्टर को खुद ही प्रशिक्षित करेगा.

पहले से प्रशिक्षित भाषा मॉडल शब्द का मतलब, बड़े भाषा के मॉडल से है, जिसे प्री-ट्रेनिंग से गुज़रना पड़ा.

प्री-ट्रेनिंग

#language
#image
#generativeAI

बड़े डेटासेट पर किसी मॉडल की शुरुआती ट्रेनिंग. कुछ पहले से ट्रेनिंग दिए गए मॉडल, अनाड़ी जायंट होते हैं और आम तौर पर उन्हें अतिरिक्त ट्रेनिंग की मदद से और बेहतर बनाया जा सकता है. उदाहरण के लिए, मशीन लर्निंग विशेषज्ञ एक बड़े टेक्स्ट डेटासेट, जैसे कि विकिपीडिया में अंग्रेज़ी के सभी पेजों पर बड़े भाषा मॉडल को पहले से ट्रेनिंग दे सकते हैं. प्री-ट्रेनिंग के बाद, इनमें से किसी भी तकनीक का इस्तेमाल करके, मॉडल को और बेहतर बनाया जा सकता है:

प्रॉम्प्ट

#language
#generativeAI

किसी बड़े लैंग्वेज मॉडल में इनपुट के तौर पर डाला गया कोई भी टेक्स्ट, ताकि मॉडल को इस तरह तय किया जा सके कि वह एक खास तरह से काम करे. निर्देश, किसी वाक्यांश जितने छोटे या अपने हिसाब से लंबे हो सकते हैं (उदाहरण के लिए, किसी नॉवेल का पूरा टेक्स्ट). प्रॉम्प्ट कई कैटगरी में आते हैं. इनमें वे कैटगरी भी शामिल हैं जिन्हें इस टेबल में दिखाया गया है:

प्रॉम्प्ट की कैटगरी उदाहरण ज़रूरी जानकारी
सवाल एक कबूतर कितनी तेज़ी से उड़ सकता है?
निर्देश आर्बिट्रेज के बारे में एक मज़ेदार कविता लिखो. एक प्रॉम्प्ट जो बड़े भाषा मॉडल से कुछ करने के लिए कहता है.
उदाहरण Markdown कोड का एचटीएमएल में अनुवाद करें. उदाहरण के लिए:
Markdown: * list item
HTML: <ul> <li>list item</li> </ul>
इस उदाहरण के प्रॉम्प्ट का पहला वाक्य एक निर्देश है. प्रॉम्प्ट का बचा हुआ उदाहरण ही उदाहरण है.
भूमिका बताएं कि फ़िज़िक्स की पीएचडी के लिए, मशीन लर्निंग की ट्रेनिंग में ग्रेडिएंट डिसेंट का इस्तेमाल क्यों किया जाता है. वाक्य का पहला हिस्सा एक निर्देश है. वाक्यांश "फ़िज़िक्स में पीएचडी के लिए" भूमिका का हिस्सा है.
मॉडल को पूरा करने के लिए कुछ हिस्सा डालें यूनाइटेड किंगडम के प्रधानमंत्री यहां रहते हैं कुछ इनपुट प्रॉम्प्ट या तो अचानक ही खत्म हो सकता है (जैसा कि इस उदाहरण में हुआ है) या अंडरस्कोर के साथ खत्म हो सकता है.

जनरेटिव एआई मॉडल की मदद से किसी प्रॉम्प्ट का जवाब दिया जा सकता है. जैसे, टेक्स्ट, कोड, इमेज, एम्बेड करना, वीडियो...करीब कुछ भी.

प्रॉम्प्ट पर आधारित लर्निंग

#language
#generativeAI

कुछ मॉडल की सुविधा, जो उन्हें मनचाहे तरीके से टेक्स्ट इनपुट (निर्देश) के जवाब में, अपने व्यवहार को बदलने में मदद करती है. प्रॉम्प्ट पर आधारित लर्निंग मॉडल में, बड़ा लैंग्वेज मॉडल टेक्स्ट जनरेट करके प्रॉम्प्ट का जवाब देता है. उदाहरण के लिए, मान लें कि कोई उपयोगकर्ता यह प्रॉम्प्ट डालता है:

न्यूटन के गति के तीसरे नियम के बारे में विस्तार से बताएं.

प्रॉम्प्ट-आधारित लर्निंग में मदद करने वाले किसी मॉडल को, पिछले प्रॉम्प्ट का जवाब देने के लिए खास तौर पर ट्रेनिंग नहीं दी गई है. इसके बजाय, मॉडल को भौतिक विज्ञान के बारे में कई तथ्यों के बारे में पता है. (उम्मीद है कि) मददगार जवाब देने के लिए यह जानकारी काफ़ी है. अतिरिक्त मानवीय फ़ीडबैक ("यह जवाब बहुत जटिल था." या "प्रतिक्रिया क्या है?") कुछ प्रॉम्प्ट-आधारित लर्निंग सिस्टम को धीरे-धीरे अपने जवाबों को बेहतर बनाने में मदद करता है.

प्रॉम्प्ट डिज़ाइन

#language
#generativeAI

प्रॉम्प्ट इंजीनियरिंग का समानार्थी शब्द.

प्रॉम्प्ट इंजीनियरिंग

#language
#generativeAI

बड़े लैंग्वेज मॉडल से, मनचाहे जवाब पाने के लिए, प्रॉम्प्ट बनाने की कला. इंसान प्रॉम्प्ट की मदद करते हैं. अच्छी तरह से बनाए गए प्रॉम्प्ट लिखना, यह पक्का करने का एक ज़रूरी हिस्सा है कि किसी बड़े भाषा मॉडल से ऐसे जवाब मिलें जो काम के हों. प्रॉम्प्ट इंजीनियरिंग कई बातों पर निर्भर करती है, जैसे:

  • इस डेटासेट का इस्तेमाल, बड़े लैंग्वेज मॉडल को प्री-ट्रेन करने और इसे फ़ाइन-ट्यून करने के लिए किया जाता है.
  • तापमान और डिकोड करने वाले अन्य पैरामीटर, जिनका इस्तेमाल मॉडल, रिस्पॉन्स जनरेट करने के लिए करता है.

मददगार प्रॉम्प्ट लिखने के बारे में ज़्यादा जानने के लिए, प्रॉम्प्ट डिज़ाइन के बारे में जानकारी देखें.

प्रॉम्प्ट डिज़ाइन, प्रॉम्प्ट इंजीनियरिंग के लिए एक समानार्थी शब्द है.

प्रॉम्प्ट ट्यूनिंग

#language
#generativeAI

पैरामीटर को बेहतर तरीके से कॉन्फ़िगर करने का तरीका, जो उस "प्रीफ़िक्स" के बारे में सीखता है जिसे सिस्टम, असल प्रॉम्प्ट से पहले जोड़ता है.

प्रॉम्प्ट ट्यूनिंग का एक वैरिएशन हर लेयर में प्रीफ़िक्स को जोड़ना है. इसे प्रीफ़िक्स ट्यूनिंग भी कहा जाता है. इसके उलट, ज़्यादातर प्रॉम्प्ट ट्यूनिंग सिर्फ़ इनपुट लेयर में प्रीफ़िक्स जोड़ती है.

R

मानवीय फ़ीडबैक (आरएलएचएफ़) की मदद से बेहतर तरीके से लागू करने की सीख

#generativeAI
#rl

मॉडल के जवाबों की क्वालिटी को बेहतर बनाने के लिए, रेटिंग देने वाले लोगों से मिले सुझाव/शिकायत/राय का इस्तेमाल करना. उदाहरण के लिए, आरएलएचएफ़ तकनीक, उपयोगकर्ताओं से किसी मॉडल के जवाब की क्वालिटी को रेटिंग देने के लिए कह सकती है. इसके लिए, 👍 या 🔒 इमोजी का इस्तेमाल किया जा सकता है. इसके बाद, सिस्टम इस सुझाव के आधार पर अपने आने वाले जवाबों में बदलाव कर सकता है.

नई भूमिका

#language
#generativeAI

अनुरोध का एक वैकल्पिक हिस्सा, जो जनरेटिव एआई मॉडल से मिले रिस्पॉन्स के लिए, टारगेट ऑडियंस की पहचान करता है. किसी भूमिका के संकेत के बिना, एक बड़े लैंग्वेज मॉडल से जवाब मिल जाता है, जो सवाल पूछने वाले व्यक्ति के लिए काम का हो सकता है या नहीं भी हो सकता है. रोल प्रॉम्प्ट का इस्तेमाल करके, एक बड़े लैंग्वेज मॉडल का इस्तेमाल करके किसी खास टारगेट ऑडियंस के लिए, ज़्यादा सही और ज़्यादा मददगार तरीके से जवाब दिया जा सकता है. उदाहरण के लिए, नीचे दिए गए संकेतों का भूमिका प्रॉम्प्ट वाला हिस्सा बोल्डफ़ेस में दिया गया है:

  • अर्थशास्त्र में पीएचडी के लिए इस लेख की जानकारी दें.
  • बताएं कि दस साल की उम्र के बच्चे के लिए ज्वार-भाटा कैसे काम करता है.
  • 2008 की वित्तीय संकट के बारे में बताएं. इसी तरह से बोलें जैसे किसी छोटे बच्चे या गोल्डन रिट्रीवर से बात करते हों.

T

तापमान

#language
#image
#generativeAI

हाइपर पैरामीटर, जो किसी मॉडल के आउटपुट की रैंडमनेस की डिग्री को कंट्रोल करता है. ज़्यादा तापमान से ज़्यादा आउटपुट मिलता है, जबकि कम तापमान से आउटपुट बिलकुल कम मिलता है.

सबसे सही तापमान चुनना, ऐप्लिकेशन और मॉडल से मिलने वाले आउटपुट से जुड़ी ज़रूरी प्रॉपर्टी पर निर्भर करता है. उदाहरण के लिए, क्रिएटिव आउटपुट जनरेट करने वाला ऐप्लिकेशन बनाते समय, हो सकता है कि आप तापमान को बढ़ाएं. इसके ठीक उलट, हो सकता है कि आप मॉडल बनाते समय तापमान कम करें, जो इमेज या टेक्स्ट की कैटगरी तय करता हो, ताकि मॉडल को ज़्यादा सटीक बनाया जा सके.

तापमान का इस्तेमाल अक्सर softmax के साथ किया जाता है.

Z

ज़ीरो-शॉट प्रॉम्प्ट

#language
#generativeAI

ऐसा प्रॉम्प्ट जिससे यह नहीं पता चलता हो कि बड़े लैंग्वेज मॉडल से आपको किस तरह का जवाब चाहिए. उदाहरण के लिए:

एक प्रॉम्प्ट के हिस्से ज़रूरी जानकारी
किसी खास देश की आधिकारिक मुद्रा क्या है? आपको एलएलएम से किस सवाल का जवाब चाहिए.
भारत: असल क्वेरी.

बड़े भाषा मॉडल के लिए, इनमें से कोई भी तरीका अपनाया जा सकता है:

  • रुपया
  • INR
  • भारतीय रुपया
  • रुपया
  • भारतीय रुपया

सभी जवाब सही हैं. हालाँकि, हो सकता है कि आपको कोई ख़ास फ़ॉर्मैट पसंद आए.

ज़ीरो-शॉट प्रॉम्प्ट की तुलना नीचे दिए गए शब्दों से करें: