इस दस्तावेज़ में बताया गया है कि जनरेटिव एआई की सुविधाओं, सीमाओं, और जोखिमों को ध्यान में रखते हुए, Gemini Code Assist को कैसे डिज़ाइन किया गया है.
लार्ज लैंग्वेज मॉडल की सुविधाएं और उनसे जुड़े खतरे
लार्ज लैंग्वेज मॉडल (एलएलएम), कई काम के टास्क कर सकते हैं. जैसे:
- भाषा का अनुवाद करें.
- टेक्स्ट की खास जानकारी दें.
- कोड और क्रिएटिव लेखन जनरेट करना.
- चैटबॉट और वर्चुअल असिस्टेंट को बेहतर बनाएं.
- सर्च इंजन और सुझाव देने वाले सिस्टम के साथ काम करते हैं.
साथ ही, एलएलएम की तकनीकी क्षमताओं में हो रही बढ़ोतरी की वजह से, इनका गलत इस्तेमाल होने और अनचाहे या पहले कभी न देखे गए असर की आशंका पैदा होती है.
एलएलएम ऐसे आउटपुट जनरेट कर सकते हैं जिनकी आपको उम्मीद नहीं होती. इनमें आपत्तिजनक, संवेदनशील या तथ्यों के हिसाब से गलत टेक्स्ट शामिल हो सकता है. एलएलएम का इस्तेमाल कई तरह के कामों के लिए किया जा सकता है. इसलिए, यह अनुमान लगाना मुश्किल हो सकता है कि वे अनचाहे या अनजान आउटपुट किस तरह के दे सकते हैं.
इन जोखिमों और जटिलताओं को ध्यान में रखते हुए, Gemini Code Assist को Google के एआई के सिद्धांतों के हिसाब से डिज़ाइन किया गया है. हालांकि, उपयोगकर्ताओं के लिए यह ज़रूरी है कि वे Gemini Code Assist की कुछ सीमाओं को समझें, ताकि वे इसे सुरक्षित और ज़िम्मेदारी के साथ इस्तेमाल कर सकें.
कोड से जुड़ी सहायता देने वाली Gemini की सुविधा की सीमाएं
Gemini Code Assist का इस्तेमाल करने पर, आपको ये सीमाएं दिख सकती हैं. हालांकि, इनके अलावा और भी सीमाएं हो सकती हैं:
ऐसे मामले जिनमें कुछ खास चीज़ें होती हैं. एज केस, असामान्य, दुर्लभ या असाधारण स्थितियों को कहते हैं. ये ऐसी स्थितियां होती हैं जिन्हें ट्रेनिंग डेटा में सही तरीके से नहीं दिखाया जाता. इन मामलों की वजह से, Gemini Code Assist मॉडल के आउटपुट में सीमाएं आ सकती हैं. जैसे, मॉडल का ज़्यादा भरोसा होना, कॉन्टेक्स्ट का गलत तरीके से इस्तेमाल करना या आपत्तिजनक आउटपुट देना.
मॉडल में भ्रम, भरोसेमंद स्रोतों से ली गई जानकारी, और तथ्यों के सही होने का आकलन करने की सुविधा जोड़ें. Gemini Code Assist मॉडल में, असल दुनिया के बारे में जानकारी, भौतिक प्रॉपर्टी या सटीक जानकारी के बारे में भरोसेमंद स्रोतों से जानकारी लेने और तथ्यों के सही होने के सिद्धांत का पालन नहीं किया जा सकता. इस सीमितता की वजह से, मॉडल में गलत जानकारी जनरेट हो सकती है. जैसे, Gemini Code Assist ऐसे आउटपुट जनरेट कर सकता है जो सही लगते हैं, लेकिन असल में गलत, काम के नहीं, आपत्तिजनक या बेमतलब के होते हैं. भ्रम में, ऐसे वेब पेजों के लिंक भी शामिल हो सकते हैं जो मौजूद नहीं हैं और कभी मौजूद भी नहीं थे. ज़्यादा जानकारी के लिए, Gemini for Google Cloud के लिए बेहतर प्रॉम्प्ट लिखना लेख पढ़ें.
डेटा क्वालिटी और ट्यूनिंग. Gemini Code Assist प्रॉडक्ट में डाले गए प्रॉम्प्ट डेटा की क्वालिटी, सटीक होने की संभावना, और पक्षपात का असर, इसकी परफ़ॉर्मेंस पर पड़ सकता है. अगर उपयोगकर्ता गलत या अधूरे प्रॉम्प्ट डालते हैं, तो हो सकता है कि Gemini Code Assist गलत या अधूरे जवाब दिखाए.
बायस को बढ़ाना. भाषा मॉडल, ट्रेनिंग डेटा में मौजूद मौजूदा पक्षपात को अनजाने में बढ़ा सकते हैं. इससे ऐसे आउटपुट मिल सकते हैं जिनसे समाज में मौजूद पूर्वाग्रहों को बढ़ावा मिल सकता है और कुछ ग्रुप के साथ भेदभाव हो सकता है.
भाषा की क्वालिटी. Gemini Code Assist की मदद से, जिन मानदंडों का हमने आकलन किया है उनमें कई भाषाओं में काम करने की बेहतर सुविधाएं मिलती हैं. हालांकि, हमारे ज़्यादातर मानदंड अमेरिकन इंग्लिश में हैं. इनमें निष्पक्षता के आकलन के सभी मानदंड भी शामिल हैं.
भाषा मॉडल, अलग-अलग उपयोगकर्ताओं को अलग-अलग क्वालिटी की सेवा दे सकते हैं. उदाहरण के लिए, हो सकता है कि टेक्स्ट जनरेशन की सुविधा कुछ बोलियों या भाषाओं के लिए उतनी असरदार न हो, क्योंकि ट्रेनिंग डेटा में इनका इस्तेमाल कम किया गया है. अंग्रेज़ी के अलावा अन्य भाषाओं या अंग्रेज़ी की उन किस्मों के लिए परफ़ॉर्मेंस खराब हो सकती है जिनका इस्तेमाल कम किया जाता है.
फ़ेयरनेस के मानदंड और सबग्रुप. Google Research के Gemini मॉडल के निष्पक्षता विश्लेषण में, अलग-अलग संभावित जोखिमों के बारे में पूरी जानकारी नहीं दी जाती. उदाहरण के लिए, हम लिंग, नस्ल, जातीयता, और धर्म के आधार पर होने वाली गड़बड़ियों पर फ़ोकस करते हैं. हालांकि, हम सिर्फ़ अमेरिकन इंग्लिश भाषा के डेटा और मॉडल के आउटपुट पर विश्लेषण करते हैं.
डोमेन के बारे में सीमित जानकारी. Gemini मॉडल को Google Cloud टेक्नोलॉजी पर ट्रेनिंग दी गई है. हालांकि, हो सकता है कि इसमें ज़्यादा खास या तकनीकी विषयों के बारे में सटीक और पूरी जानकारी देने के लिए ज़रूरी जानकारी न हो. इस वजह से, आपको अधूरी या गलत जानकारी मिल सकती है.
Gemini पर सुरक्षा और नुकसान पहुंचाने वाले कॉन्टेंट को फ़िल्टर करने की सुविधा
Gemini Code Assist के प्रॉम्प्ट और जवाबों की जांच, सुरक्षा एट्रिब्यूट की पूरी सूची के हिसाब से की जाती है. यह सूची, इस्तेमाल के हर उदाहरण के लिए लागू होती है. सुरक्षा से जुड़े इन एट्रिब्यूट का मकसद, स्वीकार किए जा सकने वाले इस्तेमाल से जुड़ी नीति का उल्लंघन करने वाले कॉन्टेंट को फ़िल्टर करना है. अगर किसी आउटपुट को नुकसान पहुंचाने वाला माना जाता है, तो जवाब को ब्लॉक कर दिया जाएगा.
आगे क्या करना है
- इस बारे में ज़्यादा जानें कि कोड जनरेट करने में आपकी मदद करते समय, Gemini Code Assist सोर्स को कैसे शामिल करता है.