انصاف
با مجموعهها، منظم بمانید
ذخیره و طبقهبندی محتوا براساس اولویتهای شما.
انصاف به پیامدهای متفاوت احتمالی که کاربران نهایی ممکن است در رابطه با ویژگی های حساس مانند نژاد، درآمد، گرایش جنسی یا جنسیت از طریق تصمیم گیری الگوریتمی تجربه کنند، می پردازد. برای مثال، ممکن است یک الگوریتم استخدام سوگیری هایی برای یا علیه متقاضیان با نام های مرتبط با جنسیت یا قومیت خاص داشته باشد؟
در این ویدیو درباره اینکه چگونه سیستم های یادگیری ماشینی ممکن است در معرض سوگیری انسانی قرار بگیرند بیشتر بیاموزید:
برای مثال در دنیای واقعی، در مورد اینکه چگونه محصولاتی مانند جستجوی Google و Google Photos تنوع رنگ پوست را از طریق مقیاس رنگ پوست Monk بهبود بخشیدند، بخوانید.
روشهای قابل اعتمادی برای شناسایی، اندازهگیری و کاهش تعصب در مدلها وجود دارد. ماژول Fairness دوره تصادف یادگیری ماشین نگاهی عمیق به تکنیکهای کاهش انصاف و تعصب ارائه میکند.
People + AI Research (PAIR) برای گذر از این مفاهیم، قابلیتهای کاوشپذیر هوش مصنوعی تعاملی در اندازهگیری انصاف و تعصب پنهان را ارائه میدهد. برای اطلاعات بیشتر مربوط به ML Fairness، به واژه نامه یادگیری ماشینی: Fairness | مراجعه کنید Google for Developers
جز در مواردی که غیر از این ذکر شده باشد،محتوای این صفحه تحت مجوز Creative Commons Attribution 4.0 License است. نمونه کدها نیز دارای مجوز Apache 2.0 License است. برای اطلاع از جزئیات، به خطمشیهای سایت Google Developers مراجعه کنید. جاوا علامت تجاری ثبتشده Oracle و/یا شرکتهای وابسته به آن است.
تاریخ آخرین بهروزرسانی 2025-07-29 بهوقت ساعت هماهنگ جهانی.
[null,null,["تاریخ آخرین بهروزرسانی 2025-07-29 بهوقت ساعت هماهنگ جهانی."],[[["\u003cp\u003eFairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions.\u003c/p\u003e\n"],["\u003cp\u003eMachine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation.\u003c/p\u003e\n"],["\u003cp\u003eGoogle has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity.\u003c/p\u003e\n"],["\u003cp\u003eDevelopers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR).\u003c/p\u003e\n"]]],[],null,["# Fairness\n\n\u003cbr /\u003e\n\n**Fairness** addresses the possible disparate outcomes end users may experience\nrelated to sensitive characteristics such as race, income, sexual orientation,\nor gender through algorithmic decision-making. For example, might a hiring\nalgorithm have biases for or against applicants with names associated with a\nparticular gender or ethnicity?\n\nLearn more about how machine learning systems might be susceptible to human bias\nin this video: \n\n\u003cbr /\u003e\n\nFor a real world example, read about how products such as Google Search and\nGoogle Photos improved diversity of skin tone representation through the\n[Monk Skin Tone Scale](https://blog.google/products/search/monk-skin-tone-scale/).\n\nThere are reliable methods of identifying, measuring, and mitigating bias in models. The [Fairness](/machine-learning/crash-course/fairness)\nmodule of [Machine Learning Crash Course](https://developers.google.com/machine-learning/crash-course)\nprovides an in-depth look at fairness and bias mitigation techniques.\n\n[People + AI Research](https://pair.withgoogle.com/) (PAIR) offers interactive\nAI Explorables on [Measuring Fairness](https://pair.withgoogle.com/explorables/measuring-fairness/)\nand [Hidden Bias](https://pair.withgoogle.com/explorables/hidden-bias/) to walk\nthrough these concepts.\nFor more terms related to ML Fairness, see [Machine Learning Glossary:\nFairness \\| Google for Developers](https://developers.google.com/machine-learning/glossary/fairness)."]]