एआई और मशीन लर्निंग से जुड़े नैतिक व्यवहार और सुरक्षा

एमएल में समाज में बदलाव लाने की क्षमता है, चाहे वह अच्छा हो या बुरा. अपने मॉडल और उन सिस्टम के नैतिक असर पर सोचना बहुत ज़रूरी है जिनका वे हिस्सा हैं.

Google में डेवलप की गई किसी भी टेक्नोलॉजी की तरह, आपके मशीन लर्निंग प्रोजेक्ट से भी समाज को फ़ायदा होना चाहिए. इनसे कोई नुकसान नहीं होना चाहिए या इनका गलत इस्तेमाल होने का खतरा नहीं होना चाहिए. उन्हें पक्षपात या पूर्वाग्रहों को बढ़ावा नहीं देना चाहिए, उन्हें बढ़ावा नहीं देना चाहिए या उन्हें बढ़ाना नहीं चाहिए. इन्हें गैर-ज़िम्मेदारी से निजी डेटा इकट्ठा या इस्तेमाल नहीं करना चाहिए.

Google के एआई से जुड़े सिद्धांत

मशीन लर्निंग प्रोजेक्ट, Google के एआई से जुड़े सिद्धांतों के मुताबिक होने चाहिए. ज़िम्मेदारी से काम करने वाले एआई (आरएआई) वाले स्मार्ट प्रैक्टिस साइट से, Googlers को ऐसे मशीन लर्निंग सलूशन बनाने में मदद मिलती है जो Google के एआई (AI) से जुड़े सिद्धांतों के मुताबिक होते हैं.

आरएआई स्मार्ट तरीके, कार्रवाई करने लायक दिशा-निर्देश हैं, जिन्हें टीम लागू करती हैं. इसका मकसद एआई और मशीन लर्निंग को ज़िम्मेदारी से डेवलप करना है. मशीन लर्निंग टूल को इन डोमेन में Google के दिशा-निर्देशों का पालन करना चाहिए:

  • निष्पक्षता
  • निजता
  • पारदर्शिता
  • सुरक्षा

एमएल और नैतिकता से जुड़े सवालों या समस्याओं के लिए, अपने प्रॉडक्ट के PCounsel और प्राइवसी वर्किंग ग्रुप से संपर्क करें.

निष्पक्षता

गलत पूर्वाग्रह बनाने या थोपने से बचें. जब मॉडल के ट्रेनिंग डेटा में नीचे बताई गई कुछ बातें होती हैं, तो मॉडल में फ़र्क़ दिखता है:

  • उनमें अपने उपयोगकर्ताओं की असल जनसंख्या को नहीं दिखाया जाता.

  • पक्षपातपूर्ण फै़सलों या नतीजों को बनाए रखता है, उदाहरण के लिए, आपराधिक न्याय के फ़ैसले जैसे कि जेल की सज़ा का समय.

  • यह, उपयोगकर्ताओं के कुछ ग्रुप के लिए, ज़्यादा अनुमान लगाने वाली सुविधाओं का इस्तेमाल करता है.

पिछले उदाहरण बस कुछ ऐसे तरीके हैं जिनसे मॉडल पक्षपात करते हैं. अपने डेटा को अच्छी तरह से समझना बहुत ज़रूरी है. इससे, उसमें शामिल किसी भी पूर्वाग्रह का पता लगाया जा सकता है और उसे हल किया जा सकता है. फ़ेयर मॉडल डेवलप करने का पहला कदम है इस बात की पुष्टि करना कि ट्रेनिंग डेटा, आपके उपयोगकर्ताओं के डिस्ट्रिब्यूशन को सटीक तरीके से दिखाता है. फ़ेयर मॉडल बनाने के लिए, यहां कुछ और तरीके दिए गए हैं:

  • इवैलुएशन डेटासेट या ग्रुप में ऐसे ग्रुप की पहचान करें जिनकी मॉडल क्वालिटी अन्य ग्रुप की तुलना में खराब हो सकती है. ट्रेनिंग डेटा में उपयोगकर्ताओं की मौजूदगी बढ़ाने के लिए, हो सकता है कि आपको उनके सबग्रुप को ओवरसैंपल करना पड़े.

  • निष्पक्षता से जुड़ी समस्याओं के लिए मॉडल की पुष्टि करने और अनजाने में भेदभाव का पता लगाने के लिए, गोल्डन डेटासेट का इस्तेमाल करें. इसे मानदंड डेटासेट भी कहा जाता है.

  • डेटासेट में लिंग या जातीयता जैसी संवेदनशील सुविधाओं को शामिल करने से बचें.

  • ऐसी सुविधाओं का इस्तेमाल न करें जिनमें प्रयोग के बारे में थोड़ी-बहुत या विस्तार से जानकारी दी गई हो. खास तौर पर, ऐसी सुविधाओं का इस्तेमाल न करें जिनमें ट्रेन किए गए मॉडल का इस्तेमाल, स्वास्थ्य सेवा, वित्त, शिक्षा, रोज़गार वगैरह जैसे क्षेत्रों में ज़्यादा असरदार काम करने के लिए किया जाता हो. उदाहरण के लिए, होम लोन को मंज़ूरी देने वाले मॉडल में, ट्रेनिंग डेटा में नाम शामिल न करें. अनुमान लगाने के टास्क के लिए, आवेदक का नाम काम का नहीं होता. साथ ही, डेटासेट में ऐसी सुविधा को छोड़ने से, अनजाने में पूर्वाग्रह होने या खास नुकसान होने की भी संभावना होती है. उदाहरण के लिए, हो सकता है कि मॉडल पुरुषों के नामों से, क़र्ज़ चुकाने की ज़्यादा संभावना के साथ, या पुरुष नामों से क़र्ज़ न चुकाने की संभावना को जोड़ दे.

  • इसका आकलन करें कि मॉडल के अनुमान का कुछ खास ग्रुप पर बुरा असर पड़ सकता है. साथ ही, अगर संवेदनशील संदर्भ में किसी मॉडल का गलत असर देखने को मिलता है, तो जान-बूझकर पूर्वाग्रह को ठीक करने की तकनीकों का इस्तेमाल करें.

एआई (AI) और मशीन लर्निंग की निष्पक्षता के बारे में ज़्यादा जानकारी के लिए, स्मार्ट प्रैक्टिस फ़ेयरनेस पेज और मशीन लर्निंग क्रैश कोर्स फ़ेयरनेस मॉड्यूल देखें.

निजता

निजता के डिज़ाइन के सिद्धांतों को शुरू से ही लागू करें. Google की किसी नई सुविधा या प्रॉडक्ट की तरह, मॉडल की समीक्षा भी आपके प्रॉडक्ट एरिया के निजता के काम करने वाले ग्रुप से की जानी चाहिए. इसलिए, शुरुआती सुझाव पाने के लिए, जल्दी ही एक निजता डिज़ाइन दस्तावेज़ बनाएं.

यहां निजता से जुड़े कानून और नीतियां दी गई हैं, जिनके बारे में आपको पता होना चाहिए और जिनका पालन करना चाहिए:

Google की निजता लागू करने की खास तौर-तरीकों का पालन करना होगा:

  • डेटा मिटाने के नियम और कानून.

  • बाइनरी और कॉन्फ़िगरेशन आईडी (BCID) लेवल 4, नुकसान पहुंचाने वाले या हैक किए गए कोड को आपके सिस्टम को ऐक्सेस करने से रोकने के लिए, सिस्टम को ऐक्सेस करने से रोकता है.

  • डेटासेट से व्यक्तिगत पहचान से जुड़ी सभी जानकारी हटा दें. साथ ही, पुष्टि करें कि आपका मॉडल और डेटा स्टोर करने की जगहें सही अनुमतियों के साथ सेट अप की गई हैं. उदाहरण के लिए, ऐसी अनुमतियां जो दुनिया के हिसाब से पढ़ी न जा सकें.

इस वीडियो में, निजता से जुड़ी समस्याओं के बारे में खास जानकारी दी गई है:

एआई और मशीन लर्निंग की निजता के बारे में ज़्यादा जानकारी के लिए, स्मार्ट तरीकों का निजता वाला पेज देखें.

पारदर्शिता

लोगों के प्रति ज़िम्मेदार होना. उदाहरण के लिए, दूसरों के लिए यह समझना आसान बनाएं कि आपका मॉडल क्या करता है, कैसे करता है, और ऐसा क्यों करता है. मॉडल कार्ड आपके मॉडल का दस्तावेज़ बनाने और पारदर्शिता आर्टफ़ैक्ट बनाने के लिए, एक टेंप्लेट देता है.

एआई और मशीन लर्निंग की पारदर्शिता के बारे में ज़्यादा जानने के लिए, स्मार्ट तरीकों का पारदर्शिता पेज देखें.

सुरक्षा

मुश्किल हालात में सुरक्षित तरीके से काम करने के लिए मॉडल डिज़ाइन करना. उदाहरण के लिए, अपने मॉडल को संभावित विरोधी इनपुट से टेस्ट करें, ताकि इस बात की पुष्टि की जा सके कि आपका मॉडल सुरक्षित है. इसके अलावा, उन शर्तों की भी जांच करें जो सफल नहीं हो सकतीं. आम तौर पर, टीमें खास तौर पर डिज़ाइन किए गए डेटासेट का इस्तेमाल करके, अपने मॉडल की जांच ऐसे इनपुट या शर्तों के साथ करती हैं जिनकी वजह से यह मॉडल पहले काम नहीं कर पाता.

सुरक्षा के बारे में ज़्यादा जानने के लिए, ज़िम्मेदारी से काम करने वाला एआई (AI) पेज देखें.

हमेशा उन विस्तृत सामाजिक संदर्भ पर विचार करें जिनमें आपके मॉडल काम करते हैं. पक्का करें कि संवेदनशील जानकारी का इस्तेमाल निजता से जुड़ी समस्याओं का उल्लंघन न करे, पक्षपात को बनाए रखे या किसी और की बौद्धिक संपत्ति का उल्लंघन न करे.

जनरेटिव एआई से जुड़े सिद्धांतों के बारे में जानकारी के लिए, जनरेटिव एआई के लिए आरएआई के स्मार्ट तरीके देखें.