يتناول مبدأ الإنصاف النتائج المتباينة المحتملة التي قد يواجهها المستخدمون النهائيون
في ما يتعلق بالسمات الحسّاسة، مثل العرق أو الدخل أو الميل الجنسي
أو الجنس، وذلك من خلال عملية صنع القرار بالاستناد إلى الخوارزميات. على سبيل المثال، هل قد تتضمّن خوارزمية التوظيف
تحيّزًا تجاه المتقدمين الذين يحملون أسماء مرتبطة بجنسين أو عرق معيّنين؟
يمكنك الاطّلاع على مزيد من المعلومات حول مدى احتمال تأثُّر أنظمة تعلُّم الآلة بالأحكام المسبقة للمستخدمين
في هذا الفيديو:
للحصول على مثال واقعي، يمكنك الاطّلاع على كيفية تحسين منتجات مثل "بحث Google" و
"صور Google" لتنوّع تمثيل درجات لون البشرة من خلال
مقياس Monk Skin Tone Scale.
هناك طرق موثوقة لتحديد الانحياز في النماذج وقياسه والحد منه. تقدّم وحدة الإنصاف
في الدورة المكثّفة عن تعلُّم الآلة
نظرة تفصيلية على تقنيات الإنصاف والحدّ من الانحياز.
تاريخ التعديل الأخير: 2024-11-14 (حسب التوقيت العالمي المتفَّق عليه)
[null,null,["تاريخ التعديل الأخير: 2024-11-14 (حسب التوقيت العالمي المتفَّق عليه)"],[[["Fairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions."],["Machine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation."],["Google has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity."],["Developers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR)."]]],[]]