ל-ML יש פוטנציאל לשנות את החברה בדרכים משמעותיות רבות, בין אם באופן חיובי ובין אם באופן שלילי. חשוב מאוד להביא בחשבון את ההשלכות המוסריות של המודלים והמערכות שהם חלק מהן.
הפרויקטים שלכם בתחום ה-ML צריכים להועיל לחברה. הם לא אמורים לגרום נזק או להיות חשופים לשימוש לרעה. אסור שהם יחזקו, יעצימו או יגבירו הטיות או דעות קדומות. אסור לאסוף מידע אישי או להשתמש בו באופן בלתי אחראי.עקרונות ה-AI של Google
Google ממליצה לפתח אפליקציות של AI ו-ML שתואמות לעקרונות ה-AI שלה. העקרונות של Google מתמקדים במושגים הבאים:
- יחס הוגן
- פרטיות
- שקיפות
- בטיחות
יחס הוגן
לא ניצור או נשמר הטיה לא הוגנת. מודלים נוטים להציג הטיה כשנתוני האימון שלהם כוללים חלק מהמאפיינים הבאים:
לא משקפים את אוכלוסיית המשתמשים בפועל.
שמירה על החלטות או תוצאות מוטה, למשל החלטות במערכת המשפט הפלילי כמו משך מאסרים.
שימוש בתכונות עם יכולת חיזוי גבוהה יותר לקבוצות מסוימות של משתמשים.
הדוגמאות הקודמות הן רק חלק מהדרכים שבהן מודלים הופכים להיות מוטים. הבנת הנתונים לעומק היא קריטית כדי לזהות ולפתור הטיות פוטנציאליות שהם מכילים. השלב הראשון בפיתוח מודלים הוגנים הוא לוודא שנתוני האימון משקפים במדויק את ההפצה של המשתמשים. אלה שיטות נוספות שיעזרו לכם ליצור מודלים הוגנים:
זיהוי קבוצות שאינן מיוצגות במלואן במערכי הנתונים של הבדיקות, או קבוצות שעשויה להיות איכות מודל נמוכה יותר בהשוואה לקבוצות אחרות. יכול להיות שתצטרכו להגדיל את מספר הדגימות של קבוצת משנה של המשתמשים כדי להגדיל את הנוכחות שלהם בנתוני האימון.
שימוש במערכי נתונים מושלמים (שנקראים גם מערכי נתונים להשוואה) כדי לאמת את המודל מפני בעיות של הוגנות ולזהות הטיה משתמעת.
מומלץ להימנע משימוש במאפיינים רגישים במערכי נתונים, כמו מגדר או מוצא אתני.
מומלץ להימנע משימוש בתכונות עם עוצמה אמפירית או הסברית נמוכה, במיוחד בהקשרים רגישים שבהם המודל המאומן משמש לביצוע משימות בעלות השפעה רבה בתחומים כמו בריאות, כספים, חינוך, תעסוקה וכו'. לדוגמה, במודל לאישור הלוואות לדיור, לא כוללים שמות בנתוני האימון. שם המועמד לא רלוונטי למשימה החיזוי, אבל השארת מאפיין לא רלוונטי כזה במערך הנתונים עלולה גם ליצור הטיה משתמעת או נזק חלוקתי. לדוגמה, יכול להיות שהמודל יקבע קורלציה בין שמות של גברים לבין סיכוי גבוה יותר להחזר, או להפך.
כדאי למדוד את ההשפעה השלילית הפוטנציאלית של התחזיות של המודל על קבוצות מסוימות, ולשקול שיטות לתיקון הטיה מכוונת אם מוצאים השפעה שלילית בהקשר רגיש.
פרטיות
משלבים עקרונות להגנה על פרטיות כבר מההתחלה.
ריכזנו כאן את החוקים והמדיניות שקשורים לפרטיות, שחשוב להכיר ולפעול בהתאם להם:
חוק השווקים הדיגיטליים (DMA) של האיחוד האירופי לקבלת הסכמה לשיתוף או לשימוש במידע אישי.
חוקי ה-GDPR של האיחוד האירופי.
בנוסף, חשוב להסיר את כל הפרטים האישיים המזהים (PII) ממערכי הנתונים, ולוודא שהמודל ומאגרי הנתונים מוגדרים עם ההרשאות המתאימות, למשל, לא גלויים לכולם.
שקיפות
להיות כפופה לבני אדם. לדוגמה, חשוב להסביר בצורה פשוטה מה המודל עושה, איך הוא עושה את זה ולמה הוא עושה את זה. כרטיסי מודל הם תבנית לתיעוד המודל וליצור ארטיפקטים של שקיפות.
בטיחות
עיצוב מודלים שפועלים בצורה בטוחה בתנאים של יריבות. לדוגמה, אפשר לבדוק את המודל באמצעות קלט פוטנציאלי של גורם עוין כדי לוודא שהמודל מאובטח. בנוסף, כדאי לבדוק אם יש תנאי כשל פוטנציאליים. בדרך כלל צוותים משתמשים במערכי נתונים שתוכננו במיוחד כדי לבדוק את המודלים שלהם עם נתוני קלט או תנאים שגרמו למודל להיכשל בעבר.
בדיקת ההבנה
תמיד חשוב להביא בחשבון את ההקשרים החברתיים הרחבים יותר שבהם המודלים פועלים. חשוב לוודא שהטיפול במידע רגיש לא מפר בעיות פרטיות, לא מעודד הטיה או מפר קניין רוחני של אדם אחר.