निष्पक्षता: भेदभाव के टाइप

मशीन लर्निंग (एमएल) मॉडल अपने मकसद से नहीं बनाए जाते. मशीन लर्निंग के विशेषज्ञ, मॉडल को ट्रेनिंग के उदाहरणों का डेटासेट देकर उन्हें ट्रेन करते हैं. इस डेटा को उपलब्ध कराने और उसे क्यूरेट करने में मानवीय गतिविधि शामिल होने पर, मॉडल के अनुमान में पक्षपात की आशंका बढ़ सकती है.

मॉडल बनाते समय, यह जानना ज़रूरी है कि डेटा में मानवीय पक्षपात की सामान्य भावनाएं कैसे दिख सकती हैं. इससे, इन भावनाओं के असर को कम करने के लिए, पहले से ही कदम उठाए जा सकते हैं.

रिपोर्टिंग में पक्षपात

पुराने डेटा का असर

ऑटोमेशन बायस

चुनने में पक्षपात

चुनने से जुड़ा पक्षपात तब होता है, जब किसी डेटासेट के उदाहरण ऐसे चुने जाते हैं जो उनके असल डिस्ट्रिब्यूशन को नहीं दिखाते. चुनिंदा नमूने के आधार पर अनुमान लगाने की गड़बड़ी के कई रूप हो सकते हैं. जैसे, कवरेज में गड़बड़ी, नतीजे न मिलने की गड़बड़ी, और सैंपलिंग में गड़बड़ी.

कवरेज बायस

नॉन-रिस्पॉन्स बायस

नमूना पूर्वाग्रह

ग्रुप एट्रिब्यूशन बायस

ग्रुप एट्रिब्यूशन बायस की मदद से, किसी व्यक्ति के बारे में वही जानकारी दी जाती है जो पूरे ग्रुप से जुड़ी होती है. ग्रुप एट्रिब्यूशन बायस अक्सर इन दो तरीकों से दिखता है.

इन-ग्रुप बायस

आउट-ग्रुप होमोजेनिटी बायस

इंप्लिसिट बायस

एक पक्ष की पुष्टि करना

एक्सपेरिमेंटर बायस

एक्सरसाइज़: देखें कि आपको क्या समझ आया

शुरुआत में बताए गए कॉलेज में दाखिले के मॉडल में, इनमें से किस तरह के पूर्वाग्रह की वजह से गलत अनुमान दिए गए हो सकते हैं?
कंफ़र्मेशन बायस
ऑटोमेशन बायस
इन-ग्रुप बायस
पुराने डेटा के आधार पर गलत नतीजे