العدالة
تنظيم صفحاتك في مجموعات
يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
تتناول الإنصاف النتائج المختلفة المحتملة التي قد يواجهها المستخدمون النهائيون
في ما يتعلق بالخصائص الحسّاسة، مثل العِرق أو الدخل أو الميول الجنسية
أو الجنس، من خلال اتخاذ القرارات المستندة إلى الخوارزميات. على سبيل المثال، هل يمكن أن يكون لدى خوارزمية التوظيف تحيّزات لصالح أو ضد المتقدّمين الذين تحمل أسماؤهم دلالات على جنس أو عرق معيّن؟
يمكنك الاطّلاع على مزيد من المعلومات حول مدى تأثّر أنظمة تعلُّم الآلة بالتحيّز البشري في هذا الفيديو:
للاطّلاع على مثال واقعي، يمكنك قراءة المزيد حول كيفية تحسين منتجات مثل "بحث Google" و"صور Google" للتنوّع في تمثيل درجات لون البشرة من خلال مقياس Monk Skin Tone.
تتوفّر طرق موثوقة لتحديد الانحياز وقياسه والحدّ منه في النماذج. يقدّم وحدة الإنصاف في دورة مكثّفة عن تعلّم الآلة نظرة معمّقة على الإنصاف وتقنيات الحدّ من التحيز.
يقدّم فريق People + AI Research (PAIR) تجارب تفاعلية
في الذكاء الاصطناعي على Measuring Fairness
وHidden Bias لشرح هذه المفاهيم.
للاطّلاع على المزيد من المصطلحات ذات الصلة بمفهوم العدالة في تعلُّم الآلة، يُرجى الانتقال إلى مسرد مصطلحات تعلُّم الآلة:
العدالة | Google for Developers.
إنّ محتوى هذه الصفحة مرخّص بموجب ترخيص Creative Commons Attribution 4.0 ما لم يُنصّ على خلاف ذلك، ونماذج الرموز مرخّصة بموجب ترخيص Apache 2.0. للاطّلاع على التفاصيل، يُرجى مراجعة سياسات موقع Google Developers. إنّ Java هي علامة تجارية مسجَّلة لشركة Oracle و/أو شركائها التابعين.
تاريخ التعديل الأخير: 2025-07-27 (حسب التوقيت العالمي المتفَّق عليه)
[null,null,["تاريخ التعديل الأخير: 2025-07-27 (حسب التوقيت العالمي المتفَّق عليه)"],[[["\u003cp\u003eFairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions.\u003c/p\u003e\n"],["\u003cp\u003eMachine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation.\u003c/p\u003e\n"],["\u003cp\u003eGoogle has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity.\u003c/p\u003e\n"],["\u003cp\u003eDevelopers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR).\u003c/p\u003e\n"]]],[],null,["# Fairness\n\n\u003cbr /\u003e\n\n**Fairness** addresses the possible disparate outcomes end users may experience\nrelated to sensitive characteristics such as race, income, sexual orientation,\nor gender through algorithmic decision-making. For example, might a hiring\nalgorithm have biases for or against applicants with names associated with a\nparticular gender or ethnicity?\n\nLearn more about how machine learning systems might be susceptible to human bias\nin this video: \n\n\u003cbr /\u003e\n\nFor a real world example, read about how products such as Google Search and\nGoogle Photos improved diversity of skin tone representation through the\n[Monk Skin Tone Scale](https://blog.google/products/search/monk-skin-tone-scale/).\n\nThere are reliable methods of identifying, measuring, and mitigating bias in models. The [Fairness](/machine-learning/crash-course/fairness)\nmodule of [Machine Learning Crash Course](https://developers.google.com/machine-learning/crash-course)\nprovides an in-depth look at fairness and bias mitigation techniques.\n\n[People + AI Research](https://pair.withgoogle.com/) (PAIR) offers interactive\nAI Explorables on [Measuring Fairness](https://pair.withgoogle.com/explorables/measuring-fairness/)\nand [Hidden Bias](https://pair.withgoogle.com/explorables/hidden-bias/) to walk\nthrough these concepts.\nFor more terms related to ML Fairness, see [Machine Learning Glossary:\nFairness \\| Google for Developers](https://developers.google.com/machine-learning/glossary/fairness)."]]