انصاف

انصاف به پیامدهای متفاوت احتمالی که کاربران نهایی ممکن است در رابطه با ویژگی های حساس مانند نژاد، درآمد، گرایش جنسی یا جنسیت از طریق تصمیم گیری الگوریتمی تجربه کنند، می پردازد. برای مثال، ممکن است یک الگوریتم استخدام سوگیری هایی برای یا علیه متقاضیان با نام های مرتبط با جنسیت یا قومیت خاص داشته باشد؟

در این ویدیو درباره اینکه چگونه سیستم های یادگیری ماشینی ممکن است در معرض سوگیری انسانی قرار بگیرند بیشتر بیاموزید:

برای مثال در دنیای واقعی، در مورد اینکه چگونه محصولاتی مانند جستجوی Google و Google Photos تنوع رنگ پوست را از طریق مقیاس رنگ پوست Monk بهبود بخشیدند، بخوانید.

روش‌های قابل اعتمادی برای شناسایی، اندازه‌گیری و کاهش تعصب در مدل‌ها وجود دارد. ماژول Fairness دوره تصادف یادگیری ماشین نگاهی عمیق به تکنیک‌های کاهش انصاف و تعصب ارائه می‌کند.

People + AI Research (PAIR) برای گذر از این مفاهیم، ​​قابلیت‌های کاوش‌پذیر هوش مصنوعی تعاملی در اندازه‌گیری انصاف و تعصب پنهان را ارائه می‌دهد. برای اطلاعات بیشتر مربوط به ML Fairness، به واژه نامه یادگیری ماشینی: Fairness | مراجعه کنید Google for Developers