निष्पक्षता

निष्पक्षता से उन संभावित नतीजों को रोका जा सकता है जो एल्गोरिदम के आधार पर फ़ैसले लेने की वजह से, असली उपयोगकर्ताओं को संवेदनशील जानकारी के आधार पर मिल सकते हैं. जैसे, नस्ल, आय, यौन रुझान या लिंग. उदाहरण के लिए, क्या किसी नौकरी के लिए, आवेदन करने वाले ऐसे लोगों के ख़िलाफ़ या उनके पक्ष में भेदभाव किया जा सकता है जिनके नाम किसी खास लिंग या जातीयता से जुड़े हों?

इस वीडियो में देखें कि मशीन लर्निंग सिस्टम पर मानवीय पक्षपात का असर कैसे पड़ सकता है:

असल दुनिया के उदाहरण के लिए, इस बारे में पढ़ें कि Google Search और Google Photos जैसे प्रॉडक्ट ने स्किन टोन के स्केल की मदद से, स्किन टोन के अलग-अलग रंगों को बेहतर तरीके से दिखाने की सुविधा कैसे उपलब्ध कराई.

मॉडल में मौजूद पूर्वाग्रह की पहचान करने, उसे मेज़र करने, और उसे कम करने के लिए भरोसेमंद तरीके मौजूद हैं. मशीन लर्निंग क्रैश कोर्स के फ़ेयरनेस मॉड्यूल में, फ़ेयरनेस और बायस को कम करने की तकनीकों के बारे में पूरी जानकारी दी गई है.

लोग + एआई रिसर्च (PAIR) इन कॉन्सेप्ट के बारे में बताने के लिए, निष्पक्षता को मेज़र करने और छिपे हुए पूर्वाग्रह पर एआई एक्सप्लोरबल की सुविधा देता है. मशीन लर्निंग के नतीजों में निष्पक्षता से जुड़ी ज़्यादा शर्तों के बारे में जानने के लिए, मशीन लर्निंग की ग्लॉसरी: निष्पक्षता | Google for Developers देखें.