एमएल की मदद से, समाज में कई तरह के बदलाव किए जा सकते हैं. ये बदलाव सकारात्मक या नकारात्मक हो सकते हैं. अपने मॉडल और उन सिस्टम के नैतिक पहलुओं पर ध्यान देना ज़रूरी है जिनका वे हिस्सा हैं.
आपके एमएल प्रोजेक्ट से समाज को फ़ायदा मिलना चाहिए. इनसे किसी को नुकसान नहीं पहुंचना चाहिए या इनका गलत इस्तेमाल नहीं किया जाना चाहिए. इनमें पक्षपात या पूर्वाग्रह को बढ़ावा नहीं दिया जाना चाहिए. उन्हें निजी डेटा को गलत तरीके से इकट्ठा या इस्तेमाल नहीं करना चाहिए.Google के एआई से जुड़े सिद्धांत
Google, एमएल और एआई के ऐसे ऐप्लिकेशन बनाने का सुझाव देता है जो एआई के सिद्धांतों का पालन करते हों. Google के सिद्धांत इन बातों पर आधारित हैं:
- निष्पक्षता
- निजता
- पारदर्शिता
- सुरक्षा
निष्पक्षता
गलत मापदंड तय करने या थोपने से बचना चाहिए, ताकि किसी के साथ भी बदसलूकी न की जाए. मॉडल में पक्षपात तब दिखता है, जब उनके ट्रेनिंग डेटा में ये विशेषताएं होती हैं:
इससे, उनके उपयोगकर्ताओं की असल संख्या का पता नहीं चलता.
पक्षपात वाले फ़ैसले या नतीजे सेव किए जाते हैं. उदाहरण के लिए, जेल में बंद रहने का समय तय करने जैसे आपराधिक न्याय से जुड़े फ़ैसले.
उपयोगकर्ताओं के कुछ ग्रुप के लिए, अनुमान लगाने की ज़्यादा सुविधाओं का इस्तेमाल करता है.
ऊपर दिए गए उदाहरणों में, मॉडल के पक्षपात के कुछ तरीके बताए गए हैं. अपने डेटा को अच्छी तरह से समझना ज़रूरी है, ताकि उसमें मौजूद किसी भी संभावित पूर्वाग्रह का पता लगाया जा सके और उसे ठीक किया जा सके. निष्पक्ष मॉडल बनाने का पहला चरण, यह पुष्टि करना है कि ट्रेनिंग डेटा में आपके उपयोगकर्ताओं का डिस्ट्रिब्यूशन सटीक तरीके से दिखाया गया है या नहीं. यहां दिए गए तरीके, सही मॉडल बनाने में मदद करते हैं:
आकलन के डेटासेट में कम प्रतिनिधित्व वाले ग्रुप या ऐसे ग्रुप की पहचान करना जिनके लिए, अन्य ग्रुप की तुलना में मॉडल की क्वालिटी खराब हो सकती है. ट्रेनिंग डेटा में उपयोगकर्ताओं की संख्या बढ़ाने के लिए, आपको अपने उपयोगकर्ताओं के किसी सबसे छोटे ग्रुप का ज़्यादा सैंपल लेना पड़ सकता है.
गोल्डन डेटासेट (जिन्हें बेंचमार्क डेटासेट भी कहा जाता है) का इस्तेमाल करके, मॉडल की निष्पक्षता से जुड़ी समस्याओं की पुष्टि करें और छिपे हुए पूर्वाग्रह का पता लगाएं.
डेटासेट में संवेदनशील जानकारी शामिल करने से बचें. जैसे, लिंग या जातीयता.
ऐसे एलिमेंट शामिल करने से बचें जिनमें बहुत कम अनुभव या जानकारी हो. खास तौर पर, संवेदनशील मामलों में, जहां ट्रेन किए गए मॉडल का इस्तेमाल, स्वास्थ्य, वित्त, शिक्षा, नौकरी वगैरह जैसे क्षेत्रों में ज़्यादा असर डालने वाले टास्क करने के लिए किया जाता है. उदाहरण के लिए, होम लोन की मंज़ूरी देने वाले मॉडल में, ट्रेनिंग डेटा में नाम शामिल न करें. नतीजे का अनुमान लगाने के लिए, आवेदक का नाम ज़रूरी नहीं है. साथ ही, डेटासेट में ऐसी ग़ैर-ज़रूरी जानकारी को शामिल करने से, किसी खास समूह के लिए भेदभाव या संसाधनों के बंटवारे में नुकसान हो सकता है. उदाहरण के लिए, मॉडल में पुरुषों के नामों को क़र्ज़ चुकाने की ज़्यादा संभावना के साथ जोड़ा जा सकता है या इसके उलट.
यह मेज़र करें कि मॉडल के अनुमान से, किसी खास ग्रुप पर क्या असर पड़ सकता है. अगर आपको किसी संवेदनशील संदर्भ में बुरा असर दिखता है, तो पक्षपात को ठीक करने के लिए, जान-बूझकर की गई तकनीकों का इस्तेमाल करें.
निजता
शुरुआत से ही निजता के सिद्धांतों को ध्यान में रखकर टेक्नोलॉजी बनाना.
निजता से जुड़े ये कानून और नीतियां जानना और उनका पालन करना ज़रूरी है:
निजी डेटा शेयर करने या इस्तेमाल करने के लिए सहमति लेने के लिए, यूरोपियन यूनियन का डिजिटल मार्केट्स ऐक्ट (डीएमए).
यूरोपियन यूनियन के जीडीपीआर कानून.
इसके अलावा, डेटासेट से व्यक्तिगत पहचान से जुड़ी सभी जानकारी (पीआईआई) को हटाना न भूलें. साथ ही, पक्का करें कि आपके मॉडल और डेटा रिपॉज़िटरी को सही अनुमतियों के साथ सेट अप किया गया हो. उदाहरण के लिए, सभी के लिए पढ़ने लायक न हो.
पारदर्शिता
लोगों के प्रति ज़िम्मेदार होना. उदाहरण के लिए, दूसरों को यह समझना आसान बनाएं कि आपका मॉडल क्या करता है, कैसे करता है, और क्यों करता है. मॉडल कार्ड आपके मॉडल को दस्तावेज़ में शामिल करने और पारदर्शिता वाले आर्टफ़ैक्ट बनाने के लिए टेंप्लेट उपलब्ध कराते हैं.
सुरक्षा
मॉडल को इस तरह डिज़ाइन करना कि वे मुश्किल परिस्थितियों में भी सुरक्षित तरीके से काम कर सकें. उदाहरण के लिए, अपने मॉडल को सुरक्षित रखने के लिए, संभावित नुकसान पहुंचाने वाले इनपुट की मदद से मॉडल की जांच करें. इसके अलावा, गड़बड़ी की संभावित स्थितियों की जांच करें. आम तौर पर, टीमें खास तौर पर डिज़ाइन किए गए डेटासेट का इस्तेमाल करती हैं, ताकि वे अपने मॉडल को उन इनपुट या स्थितियों के साथ टेस्ट कर सकें जिनकी वजह से मॉडल पहले काम नहीं कर पाया था.
देखें कि आपको विषय की कितनी समझ है
हमेशा उन बड़े सामाजिक संदर्भों को ध्यान में रखें जिनमें आपके मॉडल काम करते हैं. पक्का करें कि संवेदनशील डेटा को मैनेज करने से, निजता से जुड़ी समस्याओं का उल्लंघन न हो, किसी के पक्ष में न झुकें या किसी दूसरे के बौद्धिक संपत्ति के अधिकारों का उल्लंघन न हो.