इस पेज पर, जनरेटिव एआई शब्दावली शब्द मौजूद हैं. शब्दावली के सभी शब्दों के लिए, यहां क्लिक करें.
जवाब
ऑटो-रिग्रेसिव मॉडल
ऐसा model जो अपने पिछले अनुमानों के आधार पर किसी अनुमान का अनुमान लगाता है. उदाहरण के लिए, ऑटो-रिग्रेसिव लैंग्वेज मॉडल, पहले अनुमानित टोकन के आधार पर अगले टोकन का अनुमान लगाते हैं. ट्रांसफ़ॉर्मर पर आधारित सभी बड़े लैंग्वेज मॉडल, ऑटो-रिग्रेसिव होते हैं.
वहीं दूसरी ओर, GAN पर आधारित इमेज मॉडल आम तौर पर ऑटो-रिग्रेसिव नहीं होते, क्योंकि वे एक ही फ़ॉरवर्ड-पास में इमेज जनरेट करते हैं और बार-बार ऐसे ही चरणों में नहीं बनाए जाते. हालांकि, कुछ इमेज जनरेशन मॉडल ऑटो-रिग्रेसिव होते हैं, क्योंकि वे चरणों में इमेज जनरेट करते हैं.
C
सोच-विचार की चेन
यह प्रॉम्प्ट इंजीनियरिंग की ऐसी तकनीक है जो लार्ज लैंग्वेज मॉडल (एलएलएम) को इसके पीछे की वजह समझाने के लिए, सिलसिलेवार तरीके से बताती है. उदाहरण के लिए, नीचे दिए गए प्रॉम्प्ट पर विचार करें और दूसरे वाक्य पर खास ध्यान दें:
7 सेकंड में 0 से 60 मील प्रति घंटे की रफ़्तार से चलने वाली कार में, ड्राइवर को कितने ग्राम फ़ोर्स होंगे? जवाब में, काम की सभी कैलकुलेशन दिखाएं.
एलएलएम के जवाब में ये बातें हो सकती हैं:
- भौतिकी के सूत्रों का अनुक्रम दिखाएं, वैल्यू 0, 60, और 7 को सही जगहों पर प्लग इन करें.
- समझाएं कि इन फ़ॉर्मूले को क्यों चुना गया और अलग-अलग वैरिएबल का क्या मतलब है.
सोच-विचार की मदद से एलएलएम को सभी कैलकुलेशन करने के लिए मजबूर किया जाता है. इससे ज़्यादा सटीक जवाब मिल सकता है. इसके अलावा, सोच-विचार करने के निर्देश, उपयोगकर्ता को एलएलएम के चरणों की जांच करने में मदद करते हैं. इससे, यह पता लगाया जाता है कि जवाब सही है या नहीं.
चैट
एमएल सिस्टम के ज़रिए आगे-पीछे बातचीत का कॉन्टेंट. आम तौर पर, यह बड़े लैंग्वेज मॉडल का इस्तेमाल करता है. किसी चैट में पिछली बातचीत (आपने क्या टाइप किया और बड़े लैंग्वेज मॉडल ने क्या जवाब दिया), चैट के बाद के हिस्सों के लिए कॉन्टेक्स्ट बन जाता है.
चैटबॉट, एक बड़े लैंग्वेज मॉडल का ऐप्लिकेशन है.
कीवर्ड के हिसाब से कॉन्टेंट को एम्बेड करना
ऐसा एम्बेड करना, जिसमें शब्दों और वाक्यांशों को "समझने" वाले शब्दों और वाक्यांशों को इस तरह पेश किया जाता है कि स्थानीय लोग इन्हें आसानी से समझ सकें. संदर्भ के हिसाब से भाषा को एम्बेड करने से, मुश्किल सिंटैक्स, सिमैंटिक, और संदर्भ को समझना आसान हो जाता है.
उदाहरण के लिए, अंग्रेज़ी शब्द cow को एम्बेड करने के बारे में सोचें. पहले एम्बेड किए गए शब्द, जैसे कि word2vec, अंग्रेज़ी के शब्दों को इस तरह से दिखा सकते हैं कि एम्बेड किए जाने वाले स्पेस में गाय से सांड की दूरी, ईव (महिला भेड़) से राम (पुरुष भेड़) या महिला से पुरुष तक की दूरी के बराबर होती है. संदर्भ के हिसाब से किसी भाषा को एम्बेड करने से, एक कदम आगे बढ़ सकता है. ऐसा तब होता है, जब अंग्रेज़ी बोलने वाले लोग कभी-कभी अनजाने में गाय शब्द का इस्तेमाल करते हैं, जिसका मतलब 'गाय' या 'बैल' होता है.
कॉन्टेक्स्ट विंडो
किसी दिए गए प्रॉम्प्ट में, प्रोसेस किए जा सकने वाले टोकन की संख्या. कॉन्टेक्स्ट विंडो जितनी बड़ी होगी, मॉडल उतनी ही ज़्यादा जानकारी का इस्तेमाल करके, प्रॉम्प्ट के लिए सटीक और एक जैसा जवाब दे सकता है.
D
सीधे तौर पर सूचना देना
ज़ीरो-शॉट प्रॉम्प्टिंग का पर्यायवाची.
डिस्टिलेशन
किसी model (जिसे model कहा जाता है) के साइज़ को कम करके एक ऐसा छोटा मॉडल (जिसे model कहा जाता है) बनाने की प्रोसेस जो ओरिजनल मॉडल के अनुमानों को पूरी ईमानदारी से फ़ॉलो करती है. डिस्टिलेशन करना फ़ायदेमंद है, क्योंकि बड़े मॉडल (शिक्षक) की तुलना में छोटे मॉडल के दो मुख्य फ़ायदे होते हैं:
- कम समय में अनुमान लगाएं
- कम मेमोरी और ऊर्जा का इस्तेमाल
हालांकि, छात्र-छात्राओं के अनुमान आम तौर पर उतने अच्छे नहीं होते जितने शिक्षक के.
डिस्टिलेशन, छात्र-छात्राओं के मॉडल को ट्रेनिंग देता है, ताकि लॉस फ़ंक्शन को कम किया जा सके. यह मॉडल, छात्र-छात्रा और शिक्षक के मॉडल के अनुमान के आउटपुट के बीच के अंतर के आधार पर बनाया जाता है.
डिस्टिलेशन की तुलना, नीचे दिए गए शब्दों से करें:
म॰
कुछ ही समय में प्रॉम्प्ट भेजना
ऐसा प्रॉम्प्ट जिसमें एक से ज़्यादा ("कुछ") उदाहरण हों. इससे पता चलता है कि बड़े लैंग्वेज मॉडल को कैसे जवाब देना चाहिए. उदाहरण के लिए, नीचे दिए गए लंबे प्रॉम्प्ट में दो उदाहरण शामिल हैं. इनमें एक बड़ा लैंग्वेज मॉडल दिखाया गया है जिसमें किसी क्वेरी का जवाब देने का तरीका बताया गया है.
एक प्रॉम्प्ट के हिस्से | ज़रूरी जानकारी |
---|---|
किसी देश की आधिकारिक मुद्रा क्या है? | आपको इस सवाल का जवाब एलएलएम से देना है. |
फ़्रांस: EUR | एक उदाहरण. |
यूनाइटेड किंगडम: GBP | एक और उदाहरण. |
भारत: | असल क्वेरी. |
आम तौर पर, ज़ीरो-शॉट प्रॉम्प्ट और एक शॉट के लिए प्रॉम्प्ट की तुलना में, कुछ ही शॉट में बेहतर नतीजे मिलते हैं. हालांकि, कुछ ही शॉट में प्रॉम्प्ट भेजने के लिए, ज़्यादा लंबे प्रॉम्प्ट की ज़रूरत होती है.
कुछ शॉट के प्रॉम्प्ट देना, कुछ-कुछ सीखने का एक तरीका है. यह प्रॉम्प्ट पर आधारित लर्निंग पर लागू होता है.
फ़ाइन ट्यूनिंग
दूसरा, टास्क के हिसाब से दिया जाने वाला ट्रेनिंग पास, जिसे पहले से ट्रेनिंग दिए गए मॉडल पर परफ़ॉर्म किया जाता है, ताकि इस्तेमाल के किसी खास उदाहरण के लिए पैरामीटर बेहतर बनाए जा सकें. उदाहरण के लिए, कुछ बड़े लैंग्वेज मॉडल की ट्रेनिंग का पूरा सीक्वेंस इस तरह है:
- प्री-ट्रेनिंग: एक बड़े सामान्य डेटासेट पर एक बड़े लैंग्वेज मॉडल को ट्रेनिंग दें, जैसे कि अंग्रेज़ी भाषा वाले सभी Wikipedia पेज.
- बेहतर ट्यूनिंग: पहले से ट्रेनिंग वाले मॉडल को कोई खास टास्क करने के लिए ट्रेनिंग दें, जैसे कि चिकित्सा से जुड़ी क्वेरी का जवाब देना. आम तौर पर, फ़ाइन-ट्यूनिंग में किसी खास टास्क पर फ़ोकस करने वाले सैकड़ों या हज़ारों उदाहरण होते हैं.
एक अन्य उदाहरण में, बड़े इमेज मॉडल के लिए ट्रेनिंग का पूरा क्रम इस तरह है:
- प्री-ट्रेनिंग: एक बड़े सामान्य इमेज डेटासेट का इस्तेमाल करके, एक बड़े इमेज मॉडल को ट्रेनिंग दें, जैसे कि Wikimedia Commons में मौजूद सभी इमेज.
- बेहतर ट्यूनिंग: पहले से ट्रेनिंग वाले मॉडल को कोई खास काम करने के लिए ट्रेनिंग दें, जैसे कि ओरका की इमेज जनरेट करना.
फ़ाइन-ट्यूनिंग के लिए, नीचे दी गई रणनीतियों का कोई भी कॉम्बिनेशन लागू हो सकता है:
- पहले से ट्रेन किए गए मॉडल के सभी मौजूदा पैरामीटर में बदलाव करना. इसे कभी-कभी फ़ुल फ़ाइन-ट्यूनिंग भी कहा जाता है.
- पहले से ट्रेनिंग वाले मॉडल के सिर्फ़ कुछ मौजूदा पैरामीटर में बदलाव किया जाता है (आम तौर पर, आउटपुट लेयर के सबसे करीब की लेयर). आम तौर पर, अन्य मौजूदा पैरामीटर में कोई बदलाव नहीं किया जाता है. आम तौर पर, ये लेयर इनपुट लेयर के आस-पास होती हैं. पैरामीटर की बेहतर ट्यूनिंग देखें.
- ज़्यादा लेयर जोड़ना, आम तौर पर आउटपुट लेयर के सबसे करीब मौजूद लेयर के ऊपर.
फ़ाइन-ट्यूनिंग, ट्रांसफ़र लर्निंग का एक तरीका है. इसलिए, फ़ाइन-ट्यूनिंग किसी अलग तरह के नुकसान फ़ंक्शन या मॉडल टाइप का इस्तेमाल कर सकती है, जो पहले से ट्रेन किए गए मॉडल को ट्रेनिंग देने वाले फ़ंक्शन से अलग होता है. उदाहरण के लिए, पहले से ट्रेनिंग वाले बड़े इमेज मॉडल को ट्यून किया जा सकता है, ताकि ऐसा रिग्रेशन मॉडल बनाया जा सके जो इनपुट इमेज में पक्षियों की संख्या दिखाता हो.
इन शब्दों से फ़ाइन-ट्यूनिंग की तुलना करें और इनके बीच अंतर बताएं:
G
जनरेटिव एआई
शिक्षा से जुड़ा एक उभरता हुआ फ़ील्ड, जिसमें औपचारिक परिभाषा शामिल नहीं है. ज़्यादातर विशेषज्ञों का मानना है कि जनरेटिव एआई मॉडल ऐसा कॉन्टेंट बना सकते हैं ("जनरेट") हो सकता है जो नीचे बताई गई बातों में से कोई भी हो:
- जटिल
- अनुकूल
- मूल
उदाहरण के लिए, जनरेटिव एआई मॉडल, बेहतरीन निबंध या इमेज बना सकता है.
कुछ पुरानी टेक्नोलॉजी भी ओरिजनल और दिलचस्प कॉन्टेंट जनरेट कर सकती हैं. इनमें एलएसटीएम और आरएनएन शामिल हैं. कुछ विशेषज्ञ इन शुरुआती टेक्नोलॉजी को जनरेटिव एआई मानते हैं. हालांकि, कुछ लोगों का मानना है कि जनरेटिव एआई के मुकाबले ज़्यादा मुश्किल आउटपुट की ज़रूरत होती है.
अनुमानित एमएल की सेटिंग के बीच अंतर करें.
I
कॉन्टेक्स्ट के हिसाब से सीखना
कुछ-कुछ प्रॉम्प्ट का समानार्थी शब्द.
निर्देश ट्यूनिंग
यह फ़ाइन-ट्यूनिंग का एक तरीका है, जो दिए गए निर्देशों का पालन करने की जनरेटिव एआई मॉडल की क्षमता को बेहतर बनाता है. इंस्ट्रक्शन ट्यूनिंग में एक मॉडल को, निर्देशों की सीरीज़ की ट्रेनिंग दी जाती है. आम तौर पर, इसमें कई तरह के टास्क को कवर किया जाता है. इसके बाद, निर्देशों से बदला गया मॉडल कई तरह के कामों के लिए शून्य सवालों के लिए काम के जवाब जनरेट करता है.
इनसे तुलना करें और इनके बीच अंतर करें:
L
LoRA
कम रैंक वाली जगह के हिसाब से ढल जाने की क्षमता के लिए छोटा नाम.
कम रैंक वाली ज़रूरत के हिसाब से ढलने की क्षमता (एलआरए)
पैरामीटर को बेहतर ट्यूनिंग करने के लिए एक ऐसा एल्गोरिदम जो फ़ाइन-ट्यून, बड़े लैंग्वेज मॉडल के पैरामीटर का सिर्फ़ एक सबसेट है. LoRA से ये फ़ायदे मिलते हैं:
- यह उन तकनीकों की तुलना में ज़्यादा तेज़ी से ट्यून होता है जिनके लिए मॉडल के सभी पैरामीटर को बेहतर बनाने की ज़रूरत होती है.
- बेहतर बनाए गए मॉडल में अनुमान की कंप्यूटेशनल लागत कम करता है.
LoRA के साथ ट्यून किया गया मॉडल, अपने अनुमानों की क्वालिटी को बनाए रखता है या उसे बेहतर बनाता है.
LoRA किसी मॉडल के कई खास वर्शन चालू करता है.
सोम
मॉडल कैस्केडिंग
ऐसा सिस्टम जो किसी खास अनुमान के लिए सही model चुनता है.
कई मॉडल के ग्रुप के बारे में सोचें. इनमें बहुत बड़े (कई पैरामीटर) से लेकर बहुत छोटे (बहुत कम पैरामीटर) तक के मॉडल शामिल हैं. बहुत बड़े मॉडल, छोटे मॉडल की तुलना में अनुमान पर ज़्यादा कंप्यूटेशनल रिसॉर्स का इस्तेमाल करते हैं. हालांकि, बहुत बड़े मॉडल को छोटे मॉडल की तुलना में ज़्यादा मुश्किल अनुरोध मिल सकते हैं. मॉडल कैस्केडिंग की मदद से, अनुमान क्वेरी की जटिलता का पता चलता है और फिर अनुमान लगाने के लिए सही मॉडल चुना जाता है. मॉडल कैस्केडिंग की मुख्य वजह है, अनुमान की लागत कम करना. इसके लिए, आम तौर पर छोटे मॉडल चुनें. साथ ही, ज़्यादा मुश्किल क्वेरी के लिए सिर्फ़ बड़ा मॉडल चुनें.
मान लें कि एक छोटा मॉडल फ़ोन पर चलता है और उस मॉडल का बड़ा वर्शन किसी रिमोट सर्वर पर चलता है. अच्छे मॉडल कैस्केडिंग से लागत और इंतज़ार के समय में कमी आती है. इससे छोटे मॉडल, आसान अनुरोधों को हैंडल कर पाते हैं. साथ ही, मुश्किल अनुरोधों को हैंडल करने के लिए सिर्फ़ रिमोट मॉडल को कॉल कर सकते हैं.
मॉडल राऊटर भी देखें.
मॉडल राऊटर
वह एल्गोरिदम जो model में model के लिए सबसे सही model तय करता है. मॉडल राऊटर खुद ही एक मशीन लर्निंग मॉडल होता है, जो धीरे-धीरे यह सीखता है कि दिए गए इनपुट के लिए सबसे अच्छा मॉडल कैसे चुना जाए. हालांकि, मॉडल राऊटर कभी-कभी एक आसान और गैर-मशीन लर्निंग एल्गोरिदम हो सकता है.
O
वन-शॉट प्रॉम्प्ट
ऐसा प्रॉम्प्ट जिसमें एक उदाहरण दिया गया हो. इससे यह पता चलता है कि बड़े लैंग्वेज मॉडल को कैसे जवाब देना चाहिए. उदाहरण के लिए, यहां दिए गए प्रॉम्प्ट में, बड़े लैंग्वेज मॉडल का एक उदाहरण दिया गया है. इसमें बताया गया है कि इससे किसी क्वेरी का जवाब कैसे देना चाहिए.
एक प्रॉम्प्ट के हिस्से | ज़रूरी जानकारी |
---|---|
किसी देश की आधिकारिक मुद्रा क्या है? | आपको इस सवाल का जवाब एलएलएम से देना है. |
फ़्रांस: EUR | एक उदाहरण. |
भारत: | असल क्वेरी. |
वन-शॉट प्रॉम्प्ट की तुलना यहां दिए गए शब्दों से करें:
P
पैरामीटर की कम खपत वाला ट्यूनिंग
पहले से ट्रेन किए गए लैंग्वेज मॉडल (पीएलएम) की तुलना में, पूरी फ़ाइन-ट्यूनिंग को ज़्यादा बेहतर तरीके से फ़ाइन-ट्यून करने की तकनीकों का सेट. पैरामीटर की कम खपत वाले ट्यूनिंग से, पूरी तरह से फ़ाइन-ट्यूनिंग के मुकाबले काफ़ी कम पैरामीटर को बेहतर बनाया जाता है. हालांकि, आम तौर पर बड़ा लैंग्वेज मॉडल बनता है, जो फ़ुल ट्यूनिंग से बने बड़े लैंग्वेज मॉडल की तरह ही (या करीब-करीब) परफ़ॉर्म करता है.
इनसे पैरामीटर की कम खपत वाले ट्यूनिंग की तुलना करें:
पैरामीटर की कम खपत वाले ट्यूनिंग को पैरामीटर की कम खपत करने वाली फ़ाइन-ट्यूनिंग के नाम से भी जाना जाता है.
पीएलएम
पहले से ट्रेन किए गए भाषा मॉडल का छोटा नाम.
पहले से ट्रेन किया गया मॉडल
पहले से ट्रेनिंग दिए गए मॉडल या मॉडल कॉम्पोनेंट, जैसे कि एम्बेड करने वाला वेक्टर. कभी-कभी, पहले से ट्रेनिंग वाले एम्बेडिंग वेक्टर को न्यूरल नेटवर्क में फ़ीड किया जाएगा. कभी-कभी, आपका मॉडल पहले से ट्रेन किए गए एम्बेड करने के बजाय, एम्बेड किए गए वेक्टर को खुद ही ट्रेनिंग देगा.
पहले से ट्रेन की गई लैंग्वेज मॉडल शब्द का मतलब बड़े लैंग्वेज मॉडल से है, जिसे प्री-ट्रेनिंग से गुज़रना पड़ा.
प्री-ट्रेनिंग
बड़े डेटासेट पर किसी मॉडल की शुरुआती ट्रेनिंग. कुछ पहले से ट्रेनिंग पा चुके मॉडल पुराने जायंट होते हैं. आम तौर पर, उन्हें अतिरिक्त ट्रेनिंग की मदद से और बेहतर बनाया जाता है. उदाहरण के लिए, मशीन लर्निंग एक्सपर्ट एक बड़े टेक्स्ट डेटासेट, जैसे कि Wikipedia के सभी अंग्रेज़ी पेजों पर बड़े लैंग्वेज मॉडल को प्री-ट्रेन कर सकते हैं. प्री-ट्रेनिंग के बाद, तैयार करने वाले मॉडल को नीचे दी गई किसी भी तकनीक का इस्तेमाल करके और बेहतर बनाया जा सकता है:
मैसेज
बड़े लैंग्वेज मॉडल को इनपुट के तौर पर डाला गया कोई भी टेक्स्ट, इस शर्त को पूरा करता है कि मॉडल सही तरीके से काम करे. प्रॉम्प्ट किसी वाक्य की तरह छोटे हो सकते हैं या अपनी मर्ज़ी से लंबे समय तक (जैसे, उपन्यास का पूरा टेक्स्ट) भी हो सकते हैं. प्रॉम्प्ट की कई कैटगरी होती हैं. इनमें, नीचे दी गई टेबल में बताई गई कैटगरी भी शामिल हैं:
प्रॉम्प्ट की कैटगरी | उदाहरण | ज़रूरी जानकारी |
---|---|---|
सवाल | एक कबूतर कितनी तेज़ी से उड़ सकता है? | |
निर्देश | आर्बिट्रेज के बारे में एक मज़ेदार कविता लिखें. | एक प्रॉम्प्ट जो बड़े लैंग्वेज मॉडल से कुछ करने के लिए कहता है. |
उदाहरण | मार्कडाउन कोड का एचटीएमएल में अनुवाद करें. उदाहरण के लिए:
Markdown: * सूची आइटम एचटीएमएल: <ul> <li>सूची आइटम</li> </ul> |
इस उदाहरण के प्रॉम्प्ट का पहला वाक्य एक निर्देश है. प्रॉम्प्ट का बचा हुआ हिस्सा, उदाहरण के तौर पर है. |
भूमिका | बताओ कि मशीन लर्निंग की ट्रेनिंग में, भौतिक विज्ञान की पीएचडी के लिए, ग्रेडिएंट डिसेंट का इस्तेमाल क्यों किया जाता है. | वाक्य का पहला हिस्सा एक निर्देश है; वाक्यांश "भौतिकी में पीएचडी के लिए" भूमिका का हिस्सा है. |
मॉडल को पूरा करने के लिए आंशिक इनपुट | यूनाइटेड किंगडम के प्रधानमंत्री | आंशिक इनपुट प्रॉम्प्ट या तो अचानक खत्म हो सकता है (जैसा कि इस उदाहरण में हुआ है) या अंडरस्कोर के साथ खत्म हो सकता है. |
जनरेटिव एआई मॉडल की मदद से, किसी प्रॉम्प्ट का जवाब दिया जा सकता है. जैसे- टेक्स्ट, कोड, इमेज, एम्बेड करना, वीडियो...करीब कुछ भी.
प्रॉम्प्ट के हिसाब से सीखना
कुछ मॉडल की एक क्षमता, जो उन्हें मनचाहे तरीके से टेक्स्ट इनपुट (प्रॉम्प्ट) के जवाब में, अपने व्यवहार के हिसाब से बदलाव करने की सुविधा देती है. आम तौर पर, प्रॉम्प्ट पर आधारित लर्निंग मॉडल में बड़ा लैंग्वेज मॉडल, टेक्स्ट जनरेट करके सवाल का जवाब देता है. उदाहरण के लिए, मान लें कि कोई उपयोगकर्ता यह प्रॉम्प्ट डालता है:
न्यूटन के गति के तीसरे नियम का सारांश बनाओ.
प्रॉम्प्ट-आधारित लर्निंग की सुविधा वाले मॉडल को, पिछले प्रॉम्प्ट का जवाब देने के लिए खास तौर पर ट्रेनिंग नहीं दी गई है. इसके बजाय, यह मॉडल भौतिकी के बारे में बहुत सी बातें "जानता है", भाषा के सामान्य नियमों के बारे में बहुत सारी जानकारी देता है, और इस बारे में भी बहुत कुछ जानता है कि आम तौर पर उपयोगी जवाब क्या हैं. (उम्मीद है कि) उपयोगी जवाब देने के लिए यह जानकारी काफ़ी होगी. लोगों से मिले अतिरिक्त सुझाव ("यह जवाब बहुत जटिल था." या "प्रतिक्रिया क्या है?") कुछ प्रॉम्प्ट पर आधारित लर्निंग सिस्टम को धीरे-धीरे अपने जवाबों की उपयोगिता को बेहतर बनाने की सुविधा देता है.
प्रॉम्प्ट डिज़ाइन
प्रॉम्प्ट इंजीनियरिंग का समानार्थी शब्द.
प्रॉम्प्ट इंजीनियरिंग
प्रॉम्प्ट बनाने की एक आर्ट, जिसमें बड़े लैंग्वेज मॉडल से मनमुताबिक जवाब मिलते हैं. इंसान प्रॉम्प्ट इंजीनियर करते हैं. अच्छी तरह से बनाए गए प्रॉम्प्ट लिखना, यह पक्का करने का एक ज़रूरी हिस्सा है कि किसी बड़े लैंग्वेज मॉडल से काम के जवाब मिलें. प्रॉम्प्ट इंजीनियरिंग कई चीज़ों पर निर्भर करती है, जैसे:
- इस डेटासेट का इस्तेमाल, लार्ज लैंग्वेज मॉडल को प्री-ट्रेन करने और इसे बेहतर करने के लिए किया जाता है.
- तापमान और डिकोड करने के अन्य पैरामीटर, जिनका इस्तेमाल मॉडल, रिस्पॉन्स जनरेट करने के लिए करता है.
मददगार प्रॉम्प्ट लिखने के बारे में ज़्यादा जानने के लिए, प्रॉम्प्ट डिज़ाइन के बारे में जानकारी देखें.
प्रॉम्प्ट डिज़ाइन, प्रॉम्प्ट इंजीनियरिंग का एक समानार्थी शब्द है.
प्रॉम्प्ट ट्यूनिंग
पैरामीटर की असरदार ट्यूनिंग तकनीक, जो "प्रीफ़िक्स" को सीखती है, जिसे सिस्टम, असली प्रॉम्प्ट से शुरू करता है.
प्रॉम्प्ट ट्यूनिंग का एक वैरिएशन यह है कि प्रीफ़िक्स को हर लेयर से पहले जोड़ा जाए. इसे कभी-कभी प्रीफ़िक्स ट्यूनिंग भी कहा जाता है. वहीं दूसरी ओर, ज़्यादातर प्रॉम्प्ट ट्यूनिंग, सिर्फ़ इनपुट लेयर में प्रीफ़िक्स जोड़ता है.
R
लोगों के सुझाव, शिकायत या राय की मदद से रीइन्फ़ोर्समेंट लर्निंग (आरएलएचएफ़)
मॉडल के जवाबों की क्वालिटी को बेहतर बनाने के लिए, रेटिंग देने वाले लोगों से मिले सुझावों का इस्तेमाल करना. उदाहरण के लिए, आरएलएचएफ़ तकनीक में उपयोगकर्ताओं से किसी मॉडल के जवाब की क्वालिटी को रेटिंग देने के लिए कहा जा सकता है. इसके लिए, 👍 या चिह्न इमोजी इस्तेमाल किया जा सकता है. इसके बाद, सिस्टम उस सुझाव के आधार पर आने वाले समय में रिस्पॉन्स में बदलाव कर सकता है.
रोल के लिए प्रॉम्प्ट भेजना
यह प्रॉम्प्ट का एक वैकल्पिक हिस्सा है, जो जनरेटिव एआई मॉडल से मिलने वाले रिस्पॉन्स के लिए, टारगेट ऑडियंस की पहचान करता है. भूमिका के लिए दिए गए प्रॉम्प्ट के बिना, एक बड़ा लैंग्वेज मॉडल ऐसा जवाब देता है जो सवाल पूछने वाले व्यक्ति के लिए काम का हो सकता है या नहीं भी. रोल प्रॉम्प्ट की मदद से, बड़ा लैंग्वेज मॉडल इस तरीके से जवाब दे सकता है कि यह किसी खास टारगेट ऑडियंस के लिए ज़्यादा सही और ज़्यादा मददगार होगा. उदाहरण के लिए, नीचे दिए गए प्रॉम्प्ट में रोल प्रॉम्प्ट वाला हिस्सा बोल्डफ़ेस में है:
- अर्थशास्त्र में पीएचडी के लिए इस लेख की खास जानकारी लिखो.
- बताओ कि 10 साल के बच्चे के लिए ज्वार कैसे काम करता है.
- 2008 के वित्तीय संकट के बारे में बताओ. किसी छोटे बच्चे या गोल्डन रिट्रीवर नस्ल के कुत्ते की तरह बोलें.
S
सॉफ़्ट प्रॉम्प्ट ट्यूनिंग
किसी खास टास्क के लिए, बड़े लैंग्वेज मॉडल को ट्यून करने की तकनीक. इसमें ज़्यादा रिसॉर्स का इस्तेमाल किए बिना, फ़ाइन-ट्यूनिंग की ज़रूरत नहीं होती. सॉफ़्ट प्रॉम्प्ट ट्यूनिंग, मॉडल में सभी वेट को फिर से ट्रेन करेगा. इसके बजाय, उसी लक्ष्य को हासिल करने के लिए, प्रॉम्प्ट में अपने-आप बदलाव होता है.
टेक्स्ट वाले प्रॉम्प्ट को देखते हुए, सॉफ़्ट प्रॉम्प्ट ट्यूनिंग आम तौर पर प्रॉम्प्ट में अतिरिक्त टोकन एम्बेडिंग को जोड़ती है. साथ ही, इनपुट को ऑप्टिमाइज़ करने के लिए, बैकप्रोपेगेशन का इस्तेमाल करती है.
"हार्ड" प्रॉम्प्ट में टोकन एम्बेड करने के बजाय असली टोकन होते हैं.
T
तापमान
हाइपर पैरामीटर, जो मॉडल के आउटपुट की रैंडमनेस की डिग्री को कंट्रोल करता है. ज़्यादा तापमान होने से आउटपुट ज़्यादा अनियमित होता है, जबकि कम तापमान से आउटपुट कम मिलता है.
सबसे अच्छा तापमान चुनना, किस ऐप्लिकेशन और मॉडल के आउटपुट के पसंदीदा प्रॉपर्टी पर निर्भर करता है. उदाहरण के लिए, क्रिएटिव आउटपुट जनरेट करने वाला ऐप्लिकेशन बनाते समय शायद आप तापमान बढ़ा दें. इसके ठीक उलट, ऐसा मॉडल बनाते समय तापमान को कम किया जाएगा जो इमेज या टेक्स्ट की कैटगरी तय करने वाला मॉडल बनाता है, ताकि मॉडल को ज़्यादा सटीक और एक जैसा बनाया जा सके.
तापमान की जानकारी अक्सर सॉफ़्टमैक्स के साथ इस्तेमाल की जाती है.
Z
ज़ीरो-शॉट प्रॉम्प्ट
ऐसा प्रॉम्प्ट जिससे इस बात का उदाहरण नहीं मिलता कि आपको बड़े लैंग्वेज मॉडल से जवाब कैसे चाहिए. उदाहरण के लिए:
एक प्रॉम्प्ट के हिस्से | ज़रूरी जानकारी |
---|---|
किसी देश की आधिकारिक मुद्रा क्या है? | आपको इस सवाल का जवाब एलएलएम से देना है. |
भारत: | असल क्वेरी. |
बड़ा लैंग्वेज मॉडल, इनमें से किसी भी विकल्प के साथ जवाब दे सकता है:
- रुपया
- INR
- ₹
- भारतीय रुपया
- रुपया
- भारतीय रुपया
सभी जवाब सही हैं. हालांकि, हो सकता है कि आपको कोई चुनिंदा फ़ॉर्मैट ही पसंद आए.
ज़ीरो-शॉट प्रॉम्प्ट की तुलना यहां दिए गए शब्दों से करें: