العدالة

يتناول مبدأ الإنصاف النتائج المتباينة المحتملة التي قد يواجهها المستخدمون النهائيون في ما يتعلق بالسمات الحسّاسة، مثل العرق أو الدخل أو الميل الجنسي أو الجنس، وذلك من خلال عملية صنع القرار بالاستناد إلى الخوارزميات. على سبيل المثال، هل قد تتضمّن خوارزمية التوظيف تحيّزًا تجاه المتقدمين الذين يحملون أسماء مرتبطة بجنسين أو عرق معيّنين؟

يمكنك الاطّلاع على مزيد من المعلومات حول مدى احتمال تأثُّر أنظمة تعلُّم الآلة بالأحكام المسبقة للمستخدمين في هذا الفيديو:

للحصول على مثال واقعي، يمكنك الاطّلاع على كيفية تحسين منتجات مثل "بحث Google" و "صور Google" لتنوّع تمثيل درجات لون البشرة من خلال مقياس Monk Skin Tone Scale.

هناك طرق موثوقة لتحديد الانحياز في النماذج وقياسه والحد منه. تقدّم وحدة الإنصاف في الدورة المكثّفة عن تعلُّم الآلة نظرة تفصيلية على تقنيات الإنصاف والحدّ من الانحياز.

تقدّم People + AI Research (PAIR) أدوات تفاعلية لفحص الذكاء الاصطناعي بشأن قياس العدالة والانحياز الخفي للتعرّف على هذه المفاهيم. لمزيد من المصطلحات المتعلّقة بموضوع "إنصاف تعلُّم الآلة"، يُرجى الاطّلاع على مسرد تعلُّم الآلة: إنصاف | Google for Developers.