מילון מונחים ללמידת מכונה: הוגנות

דף זה מכיל מונחי מילון מונחים בנושא הוגנות. לכל המונחים במילון המונחים, לחצו כאן.

A

שיוך

#fairness

מילה נרדפת ל-feature.

בהקשר של הוגנות בלמידת מכונה, מאפיינים מתייחסים לעיתים קרובות למאפיינים שמתייחסים לאנשים פרטיים.

הטיית אוטומציה

#fairness

כאשר מקבל החלטות מקבל עדיפות על פני המלצות שמבוססות על מערכת אוטומטית לקבלת החלטות, על פני מידע שמתבצע ללא אוטומציה, גם אם הן קורות עם שגיאות.

B

הטיה (אתיקה/הוגנות)

#fairness
#fundamentals

‫1. יצירת סטריאוטיפים, דעה קדומה או העדפה כלפי דברים מסוימים, אנשים או קבוצות על פני דברים אחרים. ההטיות האלה יכולות להשפיע על איסוף נתונים ופרשנות שלהם, על תכנון המערכת ועל האינטראקציה של המשתמשים עם המערכת. דוגמאות לסוג כזה של הטיה:

2. שגיאה שיטתית שמופיעה בהליך של דגימה או דיווח. דוגמאות לסוג כזה של הטיה:

חשוב להבחין במונח ההטיה במודלים של למידת מכונה או בהטיה של חיזוי.

C

הטיית אישור

#fairness

הנטייה לחפש מידע, לפרש אותו, להעדיף אותו ולזכור אותו באופן שמאשר את האמונות או ההשערות הקיימות של אדם. מפתחי למידת מכונה עלולים לאסוף או לתייג נתונים בטעות, בדרכים שמשפיעות על התוצאות שתומכות באמונות הקיימות שלהם. הטיית אישור היא סוג של הטיה מרומזת.

הטיות של הניסוי הן סוג של הטיית אישור שבה הניסוי ממשיך את המודלים של האימון עד לאישור השערה קיימת.

הוגנות נגד עובדות

#fairness

מדד הוגנות שבודק אם המסווג מייצר את אותה תוצאה לאדם אחד כמו במקרה של אדם פרטי אחר שזהה לתוצאה הראשונה, מלבד לגבי מאפיין רגיש אחד או יותר. אחת השיטות לזיהוי מקורות פוטנציאליים של הטיה במודל, היא להעריך את המסווג כדי להבין שמדובר בהגינות.

לדיון מפורט יותר על הוגנות, אפשר לקרוא את המאמר "כשעולמות מתנגשים: שילוב של הנחות נגדיות שונות בהגינות".

הטיית כיסוי

#fairness

למידע נוסף על הטיית הבחירות.

D

שוויון דמוגרפי

#fairness

מדד הוגנות שמתקיים אם תוצאות הסיווג של המודל לא תלויות במאפיין רגיש נתון.

לדוגמה, אם גם תושבי הליפוטים וגם בני ברודינגנאגיה מצטרפים לאוניברסיטת גלובדואבדיב, מתקבלת התאמה דמוגרפית אם אחוז האנשים בלילפוטים שיקבלו אישור יהיה זהה לאחוז המנויים של ברבדינגנגה, בלי קשר אם קבוצה אחת נחשבת בממוצע לקבוצה בעלת כישורים גבוהים יותר מהאחרת.

בניגוד לסיכויים שוויוניים ושוויון הזדמנויות, שמאפשרים סיווג מצטבר שתלוי במאפיינים רגישים, אבל לא מאפשרים לתוצאות סיווג מסוימות שתוויות אמת קרקע מסוימות תלויות במאפיינים רגישים. במאמר "תקיפה של אפליה באמצעות למידת מכונה חכמה יותר" תוכל לראות תצוגה חזותית של היתרונות של אופטימיזציה תוך התמקדות בהתאמת דמוגרפית.

השפעה שונה

#fairness

קבלת החלטות בלתי פרופורציונליות לגבי אנשים שמשפיעים על קבוצות משנה שונות של אוכלוסייה. זה בדרך כלל מתייחס למצבים שבהם תהליך קבלת החלטות אלגוריתמי מזיק או שימושי לקבוצות משנה מסוימות או יותר מהן.

לדוגמה, נניח שאלגוריתם שקובע את הזכאות של תושב/ת ליליפוטי להלוואה מיניאטורית עשוי לסווג אותו כ'לא כשיר' אם כתובת הדואר שלו מכילה מיקוד מסוים. אם יש סיכוי גבוה יותר לתושבי ליליפוטים גדולים (Big-Endian Lilliputians) שיש להם כתובות דואר עם המיקוד הזה, מאשר לליפוטים קנדיים קטנים, ההשפעה של האלגוריתם הזה עלולה להיות שונה.

בניגוד לטיפול שונה, שמתמקד בהבדלים שנוצרים כאשר המאפיינים של תתי-קבוצות הם קלט מפורש לתהליך קבלת החלטות אלגוריתמי.

יחס שונה

#fairness

שקלול המאפיינים הרגישים של נבדקים בתהליך קבלת החלטות אלגוריתמי, כך שקבוצות משנה שונות של אנשים מטופלות באופן שונה.

לדוגמה, כדאי להשתמש באלגוריתם שקובע את הזכאות של תושבי ליליפוטים להלוואה מיניאטורית לבית, על סמך הנתונים שהם מספקים בבקשת ההלוואה שלהם. אם האלגוריתם משתמש בהשתייכות של ליליפוטיאנית כקלט של Big-Endian או Little-Endian כקלט, היא מזהה יחס שונה לגבי הממד הזה.

היא מנוגדת להשפעה שונה, שמתמקדת בפערים בהשפעות החברתיות של החלטות אלגוריתמיות על קבוצות משנה, גם אם קבוצות המשנה האלה הן קלט למודל.

ה.

שוויון הזדמנויות

#fairness

מדד הוגנות שמאפשר להעריך אם המודל מייצר באופן שווה את התוצאה הרצויה לכל הערכים של מאפיין רגיש. במילים אחרות, אם התוצאה הרצויה למודל היא הסיווג החיובי, המטרה תהיה שהשיעור החיובי האמיתי יהיה זהה בכל הקבוצות.

שוויון הזדמנויות קשור לסיכויים שוויוניים, ולכן גם השיעור החיובי האמיתי וגם השיעורים החיוביים השגויים יהיו זהים בכל הקבוצות.

נניח שאוניברסיטת גלובדובדיב מאפשרת לקבל גם לתושבי ליליפוטים וגם לברודינגנגיה תוכנית קפדנית במתמטיקה. בתי הספר המשניים של ליליפוטים מציעים תוכנית לימודים קפדנית של שיעורי מתמטיקה, ורוב התלמידות והתלמידים מתאימים לתוכנית האוניברסיטאית. בתי הספר התיכון ברובינגנאגיה לא מציעים בכלל שיעורי מתמטיקה, וכתוצאה מכך, הרבה פחות מהתלמידים שלהם מוסמכים. מקבלים שוויון הזדמנויות לתווית המועדפת 'אושר' ביחס ללאום (ליליפוטית או ברודינגאנג'יאן), אם יש סיכוי שווה לכך שסטודנטים מוסמכים יתקבלו בלי קשר להשתייכות שלהם 'ליליפוטים' או 'ברובדינג'אים'.

לדוגמה, נניח ש-100 תושבי ליליפוטים ו-100 ברובדינגנגה פונים לאוניברסיטת גלובאדובדיב, והחלטות הקבלה מתקבלות כך:

טבלה 1. מועמדים לליליפוטים (90% זכאים)

  כשיר לא מתאים
מאושר 45 3
נדחה 45 7
סה"כ 90 10
אחוז התלמידות והתלמידים שעומדים בדרישות: 45/90 = 50%
אחוז הסטודנטים שלא קיבלו הסמכה שנדחו: 7/10 = 70%
האחוז הכולל של הסטודנטים הליליפוטיים שהתקבלו: (45+3)/100 = 48%

 

טבלה 2. מגישי בקשות ל-Brobdingnagian (10% זכאים):

  כשיר לא מתאים
מאושר 5 9
נדחה 5 81
סה"כ 10 90
אחוז התלמידות והתלמידים שעומדים בדרישות: 5/10 = 50%
אחוז התלמידות והתלמידים שלא עומדים בדרישות שנדחו: 81/90 = 90%
האחוז הכולל של התלמידות והתלמידים מהתלמידות והתלמידים שרשומים: (5+9)/100 = 14%

הדוגמאות הקודמות נועדו לענות על שוויון הזדמנויות לקבלה של סטודנטים מוסמכים, כי לליליפוטים ולברודינגנאגיים מוסמכים יש סיכוי של 50% להתקבל.

אנחנו מקבלים שוויון הזדמנויות, אבל שני מדדי ההגינות הבאים לא מתקיימים:

  • שוויון דמוגרפי: תושבי ליליפוטים ותושבי ברודינגנגיה מתקבלים לאוניברסיטה בשיעורים שונים; 48% מהסטודנטים בלילפוטים מתקבלים, אבל רק 14% מהסטודנטים מברבדינגאנגיה מתקבלים.
  • סיכויים שווים: לתלמידי ליליפוטים ולתלמידים ברובדינגיאניים יש את אותו סיכוי להתקבל, אבל האילוץ הנוסף שלפיו לליליפוטים ולברודינגנאגיים שאינם מוסמכים יש את אותו סיכוי להידחות לא מתקיים. שיעור הדחייה של תושבי ליליפוטים לא מוסמכים הוא 70%, ושיעור הדחייה של תושבי ברודינגנאגי לא מוסמכים הם 90%.

לדיון מפורט יותר בנושא שוויון הזדמנויות, ראו "שוויון הזדמנויות בלמידה מבוקרת". מומלץ לקרוא גם את המאמר "תקיפה של אפליה באמצעות למידת מכונה חכמה יותר", שבו תוכל לבחון את היתרונות והחסרונות כדי להשיג שוויון הזדמנויות.

סיכויים שווים

#fairness

מדד הוגנות שמאפשר להעריך אם מודל יכול לחזות תוצאות באותה מידה בכל הערכים של מאפיין רגיש, תוך התייחסות גם לסיווג החיובי וגם לסיווג שלילי – לא רק לסוג אחד או לקטגוריה השנייה, באופן בלעדי. במילים אחרות, גם השיעור החיובי האמיתי וגם השיעור השלילי צריכים להיות זהים בכל הקבוצות.

סיכויים זהים קשורים לשוויון הזדמנויות, שמתמקד רק בשיעורי השגיאות של מחלקה אחת (חיובית או שלילית).

לדוגמה, נניח שאוניברסיטת גלובדואבדיב מקבלת גם את תושבי ליליפוטים וגם את ברודינגנאגיה לתוכנית קפדנית במתמטיקה. בתי הספר המשניים של ליליפוטים מציעים תוכנית לימודים מקיפה של שיעורי מתמטיקה, ורוב התלמידים מתאימים לתוכנית האוניברסיטאית. בתי הספר המשניים של Brobdingnagis לא מציעים בכלל שיעורי מתמטיקה, וכתוצאה מכך, הרבה פחות מהתלמידים שלהם מוסמכים. סיכויים שווים מתקיימים בתנאי שלא משנה אם מגיש הבקשה הוא ליליפוט או ברבדינגנגיני, אם הוא עומד בדרישות, יש סיכוי שווה שהוא יתקבל לתוכנית, ואם הוא לא עומד בדרישות, יש סיכוי שווה שהוא יידחה.

נניח ש-100 תושבי ליליפוטים ו-100 ברובדינגנגה פונים לאוניברסיטת גלובדואבדיב, והחלטות הקבלה מתקבלות כך:

טבלה 3. מועמדים לליליפוטים (90% זכאים)

  כשיר לא מתאים
מאושר 45 2
נדחה 45 8
סה"כ 90 10
אחוז התלמידות והתלמידים שעומדים בדרישות: 45/90 = 50%
אחוז הסטודנטים שלא קיבלו הסמכה שנדחו: 8/10 = 80%
האחוז הכולל של הסטודנטים הליליפוטיים שהתקבלו: (45+2)/100 = 47%

 

טבלה 4. מגישי בקשות ל-Brobdingnagian (10% זכאים):

  כשיר לא מתאים
מאושר 5 18
נדחה 5 72
סה"כ 10 90
אחוז התלמידות והתלמידים שעומדים בדרישות: 5/10 = 50%
אחוז התלמידות והתלמידים שלא קיבלו הסמכה שנדחו: 72/90 = 80%
האחוז הכולל של התלמידות והתלמידים מהתלמידות והתלמידים שרשומים: (5+18)/100 = 23%

יש סיכויים שוויוניים כי גם לתלמידי ליליפוטים וברודינגנאגיה מוסמכים יש סיכוי של 50% להתקבל לתוכנית, ויש סיכוי של 80% להידחות.

סיכויים שוויוניים מוגדרים באופן רשמי במאמר "שוויון הזדמנויות בלמידה מבוקרת": "המפַתָּר מרובע נותן סיכויים שווים ביחס למאפיין A ותוצאה Y מוגנים אם ` ו-A הם עצמאיים מותנים ל-Y".

הטיה של עורך ניסויים

#fairness

להצגת הטיית האישור.

נ

מגבלת הוגנות

#fairness
החלת אילוץ על אלגוריתם כדי להבטיח התאמה אחת או יותר של הגדרות הוגנות. דוגמאות לאילוצי הוגנות:

מדד הוגנות

#fairness

הגדרה מתמטית של "הוגנות" שניתן למדוד. דוגמאות למדדי הוגנות נפוצים:

הרבה מדדי הוגנות לא קשורים זה לזה. מומלץ לעיין במאמר חוסר תאימות למדדי הוגנות.

G

הטיה של שיוך קבוצתי

#fairness

בהנחה שמה שנכון לגבי פרט מסוים נכון גם לגבי כולם בקבוצה הזו. אם משתמשים בדגימת נוחות לאיסוף נתונים, ההשפעות של הטיית השיוך הקבוצתית עלולות להחמיר. במדגם לא מייצג, ייתכן שייעשו ייחוסים שלא משקפים את המציאות.

למידע נוסף, אפשר לעיין במאמרים הטיות של הומוגניות מחוץ לקבוצה והטיה בתוך הקבוצה.

H

הטיה היסטורית

#fairness

סוג של הטיה שכבר קיימת בעולם והגיעה למערך נתונים. להטיות האלה יש נטייה לשקף סטריאוטיפים תרבותיים קיימים, אי שוויון דמוגרפי ודעות קדומות נגד קבוצות חברתיות מסוימות.

לדוגמה, כדאי לחשוב על מודל סיווג שחוזה אם המועמד להלוואה יקבל הלוואה כברירת מחדל. מודל זה עבר אימון על סמך נתונים היסטוריים של בנקים מקומיים משנות ה-80 של המאה ה-20 מברירת המחדל, בשתי קהילות שונות. אם למועמדים קודמים של חברים בקהילה א' יש סיכוי גבוה פי 6 להיענות להלוואות שלהם בהשוואה למועמדים מקהילה ב', המודל עשוי ללמוד על הטיות היסטוריות, וכתוצאה מכך יש פחות סיכוי שהמודל יאשר הלוואות בקהילה א', גם אם התנאים ההיסטוריים הובילו לכך ששיעורי ברירת המחדל הגבוהים יותר של הקהילה לא היו רלוונטיים יותר.

I

הטיה מרומזת

#fairness

יצירת אסוציאציות או הנחה באופן אוטומטי על סמך מודלים של חשיבה וזכרונות של אדם. הטיה מרומזת יכולה להשפיע על הדברים הבאים:

  • איך הנתונים נאספים ומסווגים?
  • איך מתכננים ומפתחים מערכות למידת מכונה.

לדוגמה, כשיוצרים מסווג לזיהוי תמונות של חתונות, מהנדס יכול להשתמש בנוכחות של שמלה לבנה בתמונה כתכונה. עם זאת, שמלות לבנות היו מקובלות רק בתקופות מסוימות ובתרבויות מסוימות.

למידע נוסף, ניתן לעיין בהטיית האישור.

חוסר תאימות למדדי הוגנות

#fairness

הרעיון שכמה עקרונות של הוגנות אינם תואמים זה לזה ואי אפשר לממש אותם בו-זמנית. כתוצאה מכך, אין מדד אוניברסלי אחד לכימות הוגנות, שאפשר להחיל על כל הבעיות בלמידת מכונה.

זה אולי נשמע מאכזב, אבל חוסר תאימות למדדי הוגנות לא מצביע על כך שמאמצי הוגנות מניבים תוצאות לא טובות. במקום זאת, נראה שצריך להגדיר את ההגינות בהקשר של בעיית למידת מכונה נתונה, במטרה למנוע נזק ספציפי לתרחישי השימוש הספציפיים שלה.

לדיון מפורט יותר בנושא, ראו "היכולת של הוגנות".

הוגנות אישית

#fairness

מדד הוגנות שבודק אם אנשים דומים מסווגים באופן דומה. לדוגמה, ייתכן שבאקדמיה של ברודינגנגיאן נהוג לשמור על הוגנות מסוימת ולוודא שלשני תלמידות ותלמידים בעלי ציונים זהים וציוני בחינות סטנדרטיים יש סיכוי שווה להתקבל לתוכנית.

שימו לב שמידת ההוגנות תלויה לחלוטין באופן שבו מגדירים "דמיון" (במקרה הזה, ציונים וציוני בחינות), ואתם עלולים להיתקל בבעיות חדשות של הוגנות אם מדד הדמיון מפספס מידע חשוב (כמו הקפדה על תוכנית הלימודים של התלמיד).

לדיון מפורט יותר על הוגנות אישית, ראו "הוגנות באמצעות מוּדעוּת".

הטיה בתוך הקבוצה

#fairness

הצגת חלקיות לקבוצה של אדם מסוים או למאפיינים שלו. אם הבודקים או המדרגים כוללים חברים, בני משפחה או עמיתים של מפתח למידת המכונה, הטיה בתוך הקבוצה עלולה לבטל את התוקף של בדיקת המוצר או של מערך הנתונים.

הטיה בתוך הקבוצה היא סוג של הטיה של קבוצה. למידע נוסף, אפשר לעיין גם במאמר הטיית הומוגניות מחוץ לקבוצה.

לא

הטיה של אי-תגובה

#fairness

למידע נוסף על הטיית הבחירות.

O

הטיה הומוגנית מחוץ לקבוצה

#fairness

הנטייה לראות את חברי הקבוצה כשונים יותר מאשר חברי קבוצה כשמשווים בין גישות, ערכים, תכונות אישיות ומאפיינים אחרים. in-group מתייחס לאנשים שיש לך אינטראקציה איתם באופן קבוע. out-group מתייחס לאנשים שלא מנהלים איתם אינטראקציה באופן קבוע. אם יוצרים מערך נתונים ומבקשים מאנשים לספק מאפיינים של קבוצות מחוץ לקבוצות, ייתכן שהמאפיינים האלה יהיו פחות ניואנסים וסטריאוטיפיים יותר מהמאפיינים שהמשתתפים מפרטים עבור אנשים בקבוצה שלהם.

לדוגמה, תושבי ליליפוטים יכולים לתאר את בתייהם של ליליפוטים אחרים בפירוט, ולציין הבדלים קטנים בסגנונות הארכיטקטוניים, בחלונות, בדלתות ובגדלים. עם זאת, אותם ליליפוטים עשויים פשוט להכריז שכולם מתגוררים בבתים זהים.

הטיה הומוגנית מחוץ לקבוצה היא סוג של הטיה של שיוך קבוצתי.

כדאי גם לקרוא על הטיה בתוך הקבוצה.

P

הטיית השתתפות

#fairness

מילה נרדפת להטיות של היעדר תגובה. למידע נוסף על הטיית הבחירות.

עיבוד תמונה (post-processing)

#fairness
#fundamentals

התאמת הפלט של מודל אחרי הפעלת המודל. לאחר עיבוד הנתונים אפשר לאכוף אילוצי הוגנות בלי לשנות את המודלים עצמם.

לדוגמה, אפשר להחיל אחרי עיבוד על מסווג בינארי על ידי הגדרת סף סיווג כך ששוויון הזדמנויות יישמר במאפיין מסוים, על ידי בדיקה שהשיעור החיובי האמיתי זהה בכל הערכים של המאפיין.

שוויון חזוי

#fairness

מדד הוגנות שבודק אם במקרה של מסווג נתון, שיעורי הדיוק מקבילים לקבוצות משנה שלגביהם הנבדקים.

לדוגמה, מודל שחוזה את הקבלה למכללות ועומד בציפיות של לאום, אם שיעור הדיוק שלו זהה לזה של תושבי הליפוטים והברודינגנאגיים.

שוויון חזוי נקרא גם שוויון קצב חזוי.

לדיון מפורט יותר בנושא חיזוי השוויון, ראו את המאמר הסבר על הגדרות הוגנות (סעיף 3.2.1).

שוויון שיעור חזוי

#fairness

שם נוסף של שוויון חזוי.

עיבוד מראש

#fairness
המערכת מעבדת נתונים לפני שהם משמשים לאימון מודל. עיבוד מראש יכול להיות פשוט כמו הסרת מילים ממאגר טקסט באנגלית שלא מופיעות במילון האנגלי, או שהוא יכול להיות מורכב כמו ביטוי מחדש של נקודות נתונים באופן שבו מבטלים כמה שיותר מאפיינים שתואמים למאפיינים רגישים. עיבוד מראש יכול לעזור לכם לעמוד במגבלות הוגנות.

proxy (מאפיינים רגישים)

#fairness
מאפיין שמשמש כהפניה של מאפיין רגיש. לדוגמה, מיקוד של אדם פרטי יכול לשמש כייצוג של ההכנסה, הגזע או המוצא האתני שלו.

R

הטיה בדיווח

#fairness

העובדה שהתדירות שבה אנשים כותבים על פעולות, תוצאות או נכסים לא משקפת את התדירות שלהם בעולם האמיתי או את המידה שבה נכס מאפיין קבוצה של אנשים. הטיית הדיווח יכולה להשפיע על הרכב הנתונים שמערכות למידת מכונה לומדות מהם.

לדוגמה, בספרים, המילה צחוק נפוצה יותר מאשר המילה נשימה. מודל של למידת מכונה שמעריך את התדירות היחסית של צחוק ונשימה מתוך קורפוס של ספרים יקבע ככל הנראה צחוק יותר נפוץ מנשימה.

S

הטיית דגימה

#fairness

למידע נוסף על הטיית הבחירות.

הטיית בחירה

#fairness

שגיאות במסקנות שהוסקו מהנתונים שנדגמו עקב תהליך בחירה שיוצר הבדלים שיטתיים בין הדגימות שהנתונים שלהן גלויים לבין הדגימות שלא נצפו. קיימות הצורות הבאות של הטיית בחירה:

  • הטיות כיסוי: האוכלוסייה שמיוצגת במערך הנתונים לא תואמת לאוכלוסייה שעליה מודל למידת המכונה מייצר תחזיות.
  • הטיית דגימה: הנתונים לא נאספים באופן אקראי מקבוצת היעד.
  • הטיות של חוסר תשובות (שנקראות גם הטיות בהשתתפות): משתמשים מקבוצות מסוימות ביטלו את הסכמתם לסקרים בשיעורים שונים מאלה של משתמשים מקבוצות אחרות.

לדוגמה, נניח שאתם יוצרים מודל למידת מכונה שחוזה את ההנאה של אנשים מסרט. כדי לאסוף נתוני אימון, אתם מחלקים סקר לכל מי שנמצא בשורה הראשונה באולם קולנוע שבו מוצג הסרט. באופן לא שגרתי זה נשמע כדרך סבירה לאסוף מערך נתונים. עם זאת, דרך איסוף הנתונים הזה עשויות להיות צורות שונות של הטיית בחירה:

  • הטיית כיסוי: על ידי דגימה מאוכלוסייה שבחרה לצפות בסרט, ייתכן שהתחזיות של המודל לא יכללו אנשים שעדיין לא הביעו את רמת העניין הזו בסרט.
  • הטיית דגימה: במקום לדגום באופן אקראי מהאוכלוסייה הייעודית (כל האנשים בסרט), דגמתם רק את האנשים שבשורה הראשונה. ייתכן שהאנשים שיושבים בשורה הראשונה התעניינו יותר בסרט מאשר אלה שבשורות אחרות.
  • הטיה של אי-תגובה: באופן כללי, אנשים שיש להם דעה חזקה נוטים להגיב לסקרים אופציונליים בתדירות גבוהה יותר מאשר אנשים עם דעות מתונות. הסקר לגבי הסרטים הוא אופציונלי, ולכן יש סיכוי גבוה יותר שהתשובות ייצרו התפלגות בימודית מאשר התפלגות רגילה (בצורת פעמון).

מאפיין רגיש

#fairness
מאפיין אנושי שיכול להיות שצריך להתחשב בו במיוחד מסיבות משפטיות, אתיות, חברתיות או אישיות.

U

חוסר מוּדעוּת (למאפיין רגיש)

#fairness

מצב שבו מאפיינים רגישים קיימים אבל לא נכללים בנתוני האימון. בהרבה מקרים יש התאמה בין מאפיינים רגישים למאפיינים אחרים של הנתונים, ולכן מודל שאומן ללא מוּדעוּת למאפיין רגיש עדיין עלול להיות בעל השפעה שונה לגבי המאפיין הזה, או להפר אילוצים אחרים על הוגנות.