ללמידת מכונה יש פוטנציאל לשנות את החברה בדרכים רבות ומשמעותיות, לטובה או לרעה. חשוב מאוד להביא בחשבון את ההשלכות האתיות של המודלים שלכם ושל המערכות שהם חלק מהן.
כמו כל טכנולוגיה שפותחה ב-Google, פרויקטים של למידת מכונה צריכים להועיל לחברה. הם לא אמורים לגרום נזק או להיות חשופים לשימוש לרעה. אסור שהם ימשיכו להיות מוצדקים, יחזקו או יחמירו הטיות או דעות קדומות. הם לא אמורים לאסוף מידע אישי או להשתמש בו באופן בלתי אחראי.
עקרונות ה-AI של Google
פרויקטים של למידת מכונה חייבים לפעול בהתאם לעקרונות ה-AI של Google. אתר השיטות החכמות של בינה מלאכותית (RAI) עוזר לגוגלרים לפתח פתרונות למידת מכונה שמתאימים לעקרונות ה-AI של Google.
השיטות החכמות של RAI הן הנחיות פרקטיות שהצוותים יכולים ליישם כדי לפתח AI ו-ML באופן אחראי. פתרונות למידת מכונה צריכים לפעול בהתאם להנחיות של Google בדומיינים הבאים:
- יחס הוגן
- פרטיות
- שקיפות
- בטיחות
אם יש לכם שאלות או אם משהו לא ברור לגבי למידת מכונה ואתיקה, תוכלו לפנות ל-PCounsel ולקבוצת העבודה בנושא פרטיות של המוצר.
יחס הוגן
להימנע מיצירה או מחיזוק של הטיה לא הוגנת. מודלים מפגינים הטיה כאשר נתוני האימון שלהם כוללים כמה מהמאפיינים הבאים:
לא משקפים את אוכלוסיית המשתמשים שלהם בעולם האמיתי.
מיועדות לשימור החלטות או תוצאות מוטות, לדוגמה, החלטות על פי חוק פלילי, כמו זמני מאסר.
שימוש בתכונות עם יכולות חיזוי טובות יותר לקבוצות מסוימות של משתמשים.
הדוגמאות הקודמות הן רק כמה מהדרכים שבהן מודלים יכולים להיות מוטים. כדי לחשוף ולפתור את כל ההטיות הפוטנציאליות, חשוב להבין היטב את הנתונים. השלב הראשון בפיתוח של מודלים הוגנים הוא לוודא שנתוני האימון משקפים במדויק את התפלגות המשתמשים. הנה שיטות עבודה נוספות שיעזרו ליצור מודלים הוגנים:
לזהות קבוצות שלא דוגלות כראוי במערכי נתונים או בקבוצות של הערכה, שעלולות להיות פחות טובות מאיכות המודל בהשוואה לקבוצות אחרות. יכול להיות שתצטרכו לבצע דגימת יתר של קבוצת משנה של המשתמשים כדי להגדיל את הנוכחות שלהם בנתוני האימון.
משתמשים במערכי נתונים ברמת זהב (שנקראים גם מערכי נתונים של בנצ'מרק) כדי לאמת את המודל מול בעיות שקשורות הוגנות ולזהות הטיה מרומזת.
אין לכלול תכונות רגישות במערכי נתונים, כמו מגדר או מוצא אתני.
לא כדאי לכלול תכונות שיש להן מעט כוח אמפירי או הסבר, אבל במיוחד בהקשרים רגישים שבהם המודל שעבר אימון משמש לביצוע משימות משמעותיות בתחומים כמו בריאות, כספים, חינוך, תעסוקה וכו'. לדוגמה, במודל לאישור הלוואות לרכישת בית, לא כדאי לכלול שמות בנתוני האימון. לא רק שהשם של המועמד לא רלוונטי למשימת החיזוי, אלא שהשארת תכונה לא רלוונטית כזו במערך הנתונים עלולה גם לגרום להטיה מרומזת או לנזק ספציפי. לדוגמה, המודל יכול לקשר בין שמות זכריים לבין סבירות גבוהה יותר להחזר כספי, או להיפך.
מדידה של ההשפעה השלילית הפוטנציאלית על קבוצות מסוימות של התחזיות של המודל, ולשקול שיטות לתיקון הטיה מכוונת, אם מצאת השפעה שלילית בהקשר רגיש.
מידע נוסף על הוגנות ב-AI וב-ML זמין בדף 'הגינות של שיטות חכמות' וב מודול 'הגינות בקורס קריסת מכונה'.
פרטיות
להטמיע עקרונות להגנה על פרטיות כבר מההתחלה. כמו כל תכונה חדשה או מוצר חדש ב-Google, גם המודל שלכם צריך להיבדק על ידי קבוצת העבודה בנושא פרטיות באזור המוצר. לכן מומלץ ליצור מסמך תכנון בנושא פרטיות לפני קבלת המשוב הראשוני.
ברשימה הבאה מפורטים חוקים וכללי מדיניות שקשורים לפרטיות שאתם צריכים להכיר ולציית להם:
Digital Markets Act (חוק השווקים הדיגיטליים, DMA) של האיחוד האירופי כדי לקבל הסכמה לשיתוף של מידע אישי או לשימוש בו.
חוקי ה-GDPR של האיחוד האירופי.
נוהלי הפרטיות הספציפיים ל-Google עומדים בדרישות הבאות:
תקנות בנושא מחיקה.
בינארי ומזהה תצורה (BCID) רמה 4 כדי למנוע גישה של קוד זדוני או קוד שנפגע למערכת.
מסירים את כל הפרטים האישיים המזהים (PII) ממערכי הנתונים ומוודאים שהמודל ומאגרי הנתונים מוגדרים עם ההרשאות המתאימות, למשל, שהם לא קריאים לעולם.
הסרטון הבא מציג סקירה כללית ברמה גבוהה של בעיות שקשורות לפרטיות:
מידע נוסף על פרטיות ב-AI וב-ML זמין בדף הפרטיות של שיטות הבידינג החכמות.
שקיפות
להיות כפופה לבני אדם. לדוגמה, ודאו שאחרים מבינים מה המודל עושה, איך הוא עושה את זה ולמה הוא עושה זאת. כרטיסי מודל מספקים תבנית לתיעוד המודל וליצירת ארטיפקטים מסוג שקיפות.
מידע נוסף על שקיפות של AI ו-ML זמין בדף בנושא Smart Practices Transparency.
בטיחות
עיצוב מודלים כדי לפעול בבטחה בתנאים נלווים. לדוגמה, בדקו את המודל באמצעות מקורות קלט עוינים כדי לוודא שהמודל מאובטח. בנוסף, כדאי לבדוק אם יש תנאים לכשל. צוותים בדרך כלל משתמשים במערכי נתונים שנועדו במיוחד כדי לבדוק את המודלים שלהם עם קלט או תנאים, שגרמו למודל להיכשל בעבר.
מידע נוסף על בטיחות זמין בדף בנושא AI אחראי.
חשוב תמיד על ההקשרים החברתיות הרחבים יותר שבהם המודלים שלך פועלים. ודאו שהטיפול במידע אישי רגיש לא מפר בעיות פרטיות, לא גורם הטיה או מפר קניין רוחני של מישהו אחר.
למידע נוסף על אתיקה של בינה מלאכותית גנרטיבית, אפשר לעיין במאמר RAI Smart Practices for generative AI.