מבוא לאתיקה של בינה מלאכותית

איך אנחנו בונים מערכות AI בצורה אחראית בקנה מידה נרחב? כאן תוכלו ללמוד על בינה מלאכותית (AI) אחראית, על מושגים ומונחים רלוונטיים ואיך ליישם את השיטות האלה במוצרים.

מבוא

בינה מלאכותית (AI) היא הבסיס להפעלה של אפליקציות ושירותים רבים שאנשים משתמשים בהם בחיי היום-יום. עם מיליארדי משתמשי AI בכל התחומים, מעסקים ועד שירותי בריאות וחינוך, חיוני שחברות AI מובילות יפעלו כדי להבטיח שהיתרונות של הטכנולוגיות האלה יהיו גדולים יותר מפגיעות. כך נוכל ליצור את החוויה המועילה, הבטוחה והאמינה ביותר לכולם.

בינה מלאכותית (AI) אחראית מביאה בחשבון את ההשפעה החברתית של הפיתוח והקנה המידה של הטכנולוגיות האלה, כולל פגיעה פוטנציאלית ויתרונות. העקרונות של AI מספקים מסגרת, כולל יעדים לאפליקציות AI, ואפליקציות שלא נמשיך בתהליך של פיתוח מערכות AI.

מידות AI אחראיות

ככל שפיתוח ה-AI מאיץ והופך להיות זמין יותר, חשוב לשלב את שיטות ה-AI האחראיות בכל שלב בתהליך העבודה משלב הרעיון ועד להשקה. המאפיינים הבאים הם מרכיבים מרכזיים ב-AI אחראי, וחשוב להתייחס אליהם לאורך מחזור החיים של המוצר.

יחס הוגן

שימוש הוגן מתייחס לתוצאות שונות לחלוטין, ש התוצאות של משתמשי קצה עשויות להיות קשורות למאפיינים רגישים כמו גזע, הכנסה, נטייה מינית או מגדר, באמצעות קבלת החלטות אלגוריתמיות. לדוגמה, יכול להיות שלאלגוריתם לגיוס עובדים יש הטיה נגד מגישי בקשות, או שמות, המשויכים למגדר או למוצא אתני מסוים?

בסרטון הבא נסביר איך המערכות ללמידת מכונה עשויות להיות מוטות.

מומלץ לקרוא על האופן שבו מוצרים כמו חיפוש ו-Google Photos שיפרו את מגוון הייצוגים של גווני עור.

אפשר למצוא מונחים נוספים שקשורים להגינות בלמידת מכונה במאמר מילון המונחים בנושא למידת מכונה: סבירה | Google למפתחים. המודול Fairity (קורס הוגן) של הקורס ללמידת מכונה מספק מבוא להגינות בלמידת מכונה.

People + AI Research (PAIR) מציעים אפשרויות למידה אינטראקטיביות של AI, כולל מדידת הוגנות והטיות נסתרות כדי להנחות את המושגים האלה.

אחריותיות

אחריותיות היא למעשה האחריות להשפעות של מערכת AI. למשל: שקיפות, או שיתוף מידע על התנהגות המערכת והתהליך הארגוני, כולל תיעוד ושיתוף של האופן שבו מודלים ומערכי נתונים נוצרו, עברו הדרכה והערכה. כרטיסי מידע וכרטיסי נתונים הם דוגמאות לחפצים בשקיפות שיכולים לעזור בארגון העובדות החיוניות של מודלים ומערכי נתונים בלמידת מכונה, באופן מובנה.

מאפיין נוסף של אחריותיות הוא יכולת התגובה, שכוללת את ההבנה של ההחלטות של מודל למידת המכונה (ML), שבה בני אדם יכולים לזהות תכונות שמובילות לחיזוי. בנוסף, הסברים הם היכולת של ההחלטות האוטומטיות של המודל להסביר, כך שיוכלו להבין אנשים.

כדאי לקרוא מידע נוסף על יצירת אמון בקרב המשתמשים במערכות AI בפרק הסבר + אמון במדריך לאנשים + AI, ובקטע הסברים לגבי המשמעות של AI של Google.

סייפטי

הבטיחות של AI כוללת קבוצה של טכניקות עיצוב ותפעול שיש לפעול לפיהן כדי להימנע מפעולות שעשויות לגרום לנזק, בכוונה או שלא בכוונה. לדוגמה, האם מערכות מתנהגות כמתוכנן, גם מול פרצה באבטחה או מתקפה ממוקדת? האם מערכת ה-AI שלכם משופרת מספיק כדי לפעול באופן בטוח, גם כשהיא מסובכת? איך אתם מתכננים מראש כדי למנוע או להימנע מסיכונים? האם המערכת מהימנה ויציבה?

בקטע 'בטיחות' בנוהלי ה-AI האחראיים של Google מתוארות שיטות מומלצות להגנה על מערכות AI מפני מתקפות, כולל בדיקות אדפרסיביות. אתם יכולים לקרוא מידע נוסף על העבודה שלנו בתחום, ועל הלקחים שנלמדו בפוסט מילות מפתח ל-AI של Google: ההאקרים האתיים שהופכים את ה-AI לבטוחה יותר.

פרטיות

בנוהלי הפרטיות ב-AI Responsible AI (תוכלו לקרוא על הקטע 'פרטיות' בנוהלי ה-AI האחראיים ל-Google) על האפשרות לקחת בחשבון את ההשלכות הפוטנציאליות של שימוש במידע אישי רגיש. כולל לא רק לכבד את הדרישות המשפטיות והרגולטוריות, אלא גם להתחשב בנורמות חברתיות ובציפיות האישיות האופייניות. לדוגמה, אילו אמצעי הגנה צריך לנקוט כדי להבטיח את הפרטיות של אנשים, בהנחה שהמודלים של למידת המכונה עשויים לזכור או לחשוף היבטים של הנתונים שהם נחשפים אליהם? מה נדרש כדי להבטיח שלמשתמשים תהיה שקיפות ושליטה מלאה בנתונים שלהם?

מידע נוסף על הפרטיות של ML זמין בהדרכות האינטראקטיביות של PAIR Explorables:

בינה מלאכותית (AI) אחראית בדגמים כלליים/LLM

יצירת מודלים גדולים וכלליים יוצרת אתגרים חדשים בהטמעה של שיטות AI אחראיות, בזכות היכולות האפשריות של פלט פתוח ושימושים פוטנציאליים רבים במורד הזרם. בנוסף לעקרונות ה-AI, ל-Google יש מדיניות שימוש אסורה ב-AI ומדריך ה-AI למפתחים ל-Generatives.

למידע נוסף על האופן שבו צוותים ב-Google משתמשים ב-AI גנרי כדי ליצור חוויות חדשות למשתמשים ב-Google Generative AI. באתר הזה אנחנו גם מציעים הנחיות בנוגע לבטיחות והגינות, הנדסה מהירה ובדיקה של Adversral למודלים גנריים. להדרכה אינטראקטיבית על מודלים של שפה, קראו את המאמר PAIR Explorable: What have Language Models?.

מקורות מידע נוספים

למה אנחנו מתמקדים ב-AI – Google AI

תהליך הבדיקה של Google AI

תהליך הבדיקה של עקרונות ה-AI | Google AI:

ערכת כלים אחראית ל-AI | TensorFlow