יחס הוגן

הוגנות מתייחסת לתוצאות השונות האפשריות שעשויות להשפיע על משתמשי הקצה בנוגע למאפיינים רגישים כמו גזע, הכנסה, נטייה מינית או מין, כתוצאה מקבלת החלטות על סמך אלגוריתמים. לדוגמה, האם לאלגוריתם לגיוס עובדים יש הטיות לטובת או נגד מועמדים עם שמות שמשויכים למגדר או לאתניות מסוימים?

בסרטון הזה מוסבר איך מערכות של למידת מכונה עלולות להיות חשופות להטיה אנושית:

דוגמה לכך היא האופן שבו מוצרים כמו חיפוש Google ו-Google Photos שיפרו את המגוון של ייצוג גווני העור באמצעות סולם גווני העור של Monk.

יש שיטות מהימנות לזיהוי, למדידה ולצמצום הטיות במודלים. במודול הוגנות בקורס המקוצר על למידת מכונה מוצגת סקירה מעמיקה של שיטות להוגנות ולצמצום הטיה.

People + AI Research‏ (PAIR) מציע כלי AI Explorables אינטראקטיביים בנושא מדידת הוגנות והטיה מוסתרת, שמאפשרים להבין את המושגים האלה. מידע נוסף על מונחים שקשורים לשוויון ב-ML זמין במאמר מילון מונחים של למידת מכונה: שוויון | Google למפתחים.