ज़िम्मेदार एआई (AI) के बारे में जानकारी

बड़े पैमाने पर हम एआई (AI) सिस्टम को ज़िम्मेदारी के साथ कैसे बनाते हैं? ज़िम्मेदार एआई (AI) और इससे जुड़े कॉन्सेप्ट और शर्तों के बारे में जानें. साथ ही, इन तरीकों को प्रॉडक्ट में लागू करने के बारे में जानें.

शुरुआती जानकारी

आर्टिफ़िशियल इंटेलिजेंस (AI) से ऐसे कई ऐप्लिकेशन और सेवाओं को चलाने में मदद मिलती है जिनका इस्तेमाल लोग रोज़मर्रा की ज़िंदगी में करते हैं. कारोबार से लेकर स्वास्थ्य सेवा तक, एआई (AI) के करोड़ों उपयोगकर्ता हैं. इसलिए, यह ज़रूरी है कि एआई (AI) कंपनियां मुख्य रूप से यह पक्का करें कि इन टेक्नोलॉजी के फ़ायदों से उन्हें नुकसान पहुंचता है, ताकि सभी को सबसे ज़्यादा सुरक्षित और भरोसेमंद अनुभव मिले.

जवाबदेही वाली एआई (AI), इन टेक्नोलॉजी के विकास और इनके असर के समाज पर होने वाले असर को ध्यान में रखती है. साथ ही, इनका असर संभावित नुकसान और फ़ायदों पर भी पड़ता है. एआई (AI) से जुड़ी नीतियों में एक ऐसा फ़्रेमवर्क बताया गया है जिसमें एआई (AI) ऐप्लिकेशन के मकसद और ऐसे ऐप्लिकेशन शामिल होते हैं जिन्हें हम एआई सिस्टम को डेवलप करने के लिए इस्तेमाल नहीं करेंगे.

एआई (AI) के ज़िम्मेदार डाइमेंशन

जब एआई (AI) डेवलपमेंट तेज़ी से बढ़ रहा है और उसमें कई तरह के बदलाव आ रहे हैं, तो ज़िम्मेदारी से तय करने वाले एआई (AI) के तरीकों को सोच-समझकर हर वर्कफ़्लो के हिसाब से लॉन्च किया जाना ज़रूरी है. नीचे दिए गए डाइमेंशन, रिस्पॉन्सिबल एआई (AI) के मुख्य कॉम्पोनेंट हैं. प्रॉडक्ट के पूरे लाइफ़साइकल में इन डाइमेंशन को ध्यान में रखना ज़रूरी है.

निष्पक्षता

फ़ेयरनेस होने पर, असली उपयोगकर्ताओं को नस्ल, आय, सेक्शुअल ओरिएंटेशन या लिंग जैसी संवेदनशील चीज़ों से जुड़े संभावित नतीजों पर ध्यान दिया जा सकता है. उदाहरण के लिए, हो सकता है कि भर्ती करने वाले एल्गोरिदम के अनुसार, किसी खास लिंग या जाति से जुड़े आवेदकों के ख़िलाफ़ या उनके ख़िलाफ़ भेदभाव किया गया हो?

इस वीडियो में, इस बारे में ज़्यादा जानें कि मशीन लर्निंग सिस्टम पर, लोगों के भेदभाव का क्या असर होता है:

इस बारे में पढ़ें कि Search और Photos जैसे प्रॉडक्ट की मदद से, त्वचा के रंग को दिखाने में किस तरह से बेहतर बदलाव किया गया.

एमएल फ़ेयरनेस से जुड़ी ज़्यादा शर्तों के लिए, कृपया मशीन लर्निंग ग्लॉसरी: फ़ेयरनेस | Google for Developers देखें. ज़्यादा जानने के लिए, मशीन लर्निंग क्रैश कोर्स का फ़ेयरनेस मॉड्यूल, एमएल फ़ेयरनेस की बुनियादी जानकारी देता है.

लोगों और एआई (AI) रिसर्च (PAIR) के ज़रिए ऐसे एआई (AI) एक्सप्लोर किए जा सकते हैं जिनमें फ़ेयरनेस मेज़र करना और छिपे हुए भेदभाव के बारे में जानकारी शामिल होती है.

उत्तरदेयता

ज़िम्मेदारी का मतलब है कि एआई (AI) सिस्टम के असर के लिए ज़िम्मेदार होना. इसमें पारदर्शिता और सिस्टम के व्यवहार और संगठन की प्रक्रिया के बारे में जानकारी शेयर करना शामिल हो सकता है. इसमें, दस्तावेज़ और शेयर करने के तरीके के साथ-साथ मॉडल और डेटासेट को बनाने, ट्रेनिंग देने, और उनका आकलन करने का तरीका भी शामिल हो सकता है. मॉडल कार्ड और डेटा कार्ड, पारदर्शिता से जुड़े आर्टफ़ैक्ट के उदाहरण होते हैं. इससे, एमएल मॉडल और डेटासेट के ज़रूरी तथ्यों को व्यवस्थित तरीके से व्यवस्थित किया जा सकता है.

जवाबदेही का एक और डाइमेंशन है, समझना. इसमें मशीन लर्निंग (एमएल) मॉडल के फ़ैसलों को समझना, इंसानों की उन सुविधाओं की पहचान करना शामिल है जो अनुमान लगाती हैं. इसके अलावा, एक्सप्लेनेबिलिटी की मदद से, मॉडल के अपने-आप लिए जाने वाले फ़ैसलों के बारे में बताया जा सकता है, ताकि लोग उन्हें समझ सकें.

लोग और एआई (AI) गाइड के एक्सप्लेनेंसी + ट्रस्ट चैप्टर में, उपयोगकर्ताओं का भरोसा बढ़ाने के बारे में ज़्यादा जानकारी पाएं. साथ ही, Google के एआई (AI) तरीकों को समझने के बारे में ज़्यादा जानें.

सुरक्षा

एआई (AI) सुरक्षा कैटगरी में, डिज़ाइन और ऑपरेशन से जुड़ी तकनीकों का एक सेट शामिल होता है. इससे, उन गतिविधियों से बचा जा सकता है जो जान-बूझकर या अनजाने में नुकसान पहुंचा सकती हैं. उदाहरण के लिए, क्या सुरक्षा उल्लंघन या टारगेट किए गए हमले के बावजूद, सिस्टम उम्मीद के मुताबिक काम करता है? क्या आपका एआई (AI) सिस्टम सुरक्षित तरीके से काम करने के लिए, पूरी तरह सुरक्षित है? सुरक्षा जोखिमों से बचने या इनसे बचने के लिए क्या करना चाहिए? क्या आपका सिस्टम दबाव में है और भरोसेमंद है?

Google के ज़िम्मेदार एआई (AI) तरीके के सुरक्षा सेक्शन में, सुझाए गए तरीकों की जानकारी दी गई है. इनकी मदद से, एआई (AI) सिस्टम को हमलों से बचाया जा सकता है. इस बारे में ज़्यादा जानें कि कीवर्ड से जुड़ी हमारी ब्लॉग पोस्ट में हमने क्या सीखा और लर्निंग के बारे में जानें: Google की एआई (AI) रेड टीम: एआई (AI) हैकर, जो एआई (AI) को सुरक्षित बनाते हैं;.

निजता

ज़िम्मेदार एआई (AI) निजता के तरीके (Google के ज़िम्मेदार एआई (AI) तरीकों का निजता सेक्शन देखें) में संवेदनशील जानकारी का इस्तेमाल करते समय, निजता पर पड़ने वाले असर को ध्यान में रखने की ज़रूरत होती है. इसमें न सिर्फ़ कानूनी और नियामक शर्तों का सम्मान करना, बल्कि सामाजिक मानदंडों और सामान्य व्यक्तिगत उम्मीदों पर भी ध्यान देना शामिल है. उदाहरण के लिए, लोगों की निजता को पक्का करने के लिए सुरक्षा के उपाय क्या करने चाहिए, इस बात को ध्यान में रखते हुए कि एमएल मॉडल, डेटा के उन पहलुओं को याद रख सकते हैं या ज़ाहिर कर सकते हैं जिनके बारे में उन्होंने बताया है? उपयोगकर्ताओं को अपने डेटा की पर्याप्त पारदर्शिता और कंट्रोल मिले, यह पक्का करने के लिए क्या करना होगा?

PAIR Explorables के इंटरैक्टिव वॉकथ्रू के ज़रिए ML निजता के बारे में ज़्यादा जानें:

जनरेट किए गए मॉडल/एलएलएम में एआई (AI) का इस्तेमाल

बड़े और जनरेट करने वाले मॉडल के आने की वजह से, ज़िम्मेदार एआई (AI) के तरीकों को लागू करने में नई चुनौतियों का सामना करना पड़ता है. ऐसा, ओपन-एंडेड आउटपुट क्षमता और डाउनस्ट्रीम के संभावित इस्तेमाल की वजह से होता है. एआई (AI) सिद्धांतों के अलावा, Google के पास एआई (AI) का इस्तेमाल करने पर पाबंदी वाली नीति और डेवलपर के लिए एआई (AI) गाइड है.

Google जनरेट करने वाले एआई (AI) का इस्तेमाल करने वालों के लिए नए अनुभव बनाने के लिए, Google की टीम अपने खोज नतीजों में एआई (AI) का इस्तेमाल करने के बारे में ज़्यादा जानें. इस साइट पर, हम जनरेट करने वाले मॉडल के लिए, सुरक्षा और निष्पक्षता, प्रॉम्प्ट इंजीनियरिंग, और विज्ञापन की जांच से जुड़े दिशा-निर्देश भी देते हैं. भाषा के मॉडल के बारे में इंटरैक्टिव कदम-दर-कदम निर्देश के लिए, फ़ेयर एक्सप्लोरेबल देखें: भाषा के मॉडल क्या सीखे गए हैं?

इसी विषय से जुड़े कुछ लिंक

हम AI पर फ़ोकस क्यों करते हैं – Google AI

Google AI की समीक्षा की प्रोसेस

एआई (AI) सिद्धांत की समीक्षा की प्रोसेस | Google एआई:

जवाबदेही एआई (AI) टूलकिट | TensorFlow