אחריותיות

אחריותיות היא היכולת לקחת אחריות על ההשפעות של מערכת בינה מלאכותית. בדרך כלל, אחריות כוללת שקיפות, או שיתוף מידע על התנהגות המערכת ועל התהליך הארגוני. שיתוף המידע יכול לכלול תיעוד של האופן שבו המודלים ומערכי הנתונים נוצרו, הוכשרו והועברו להערכה, ושיתוף המידע הזה. באתרים הבאים מוסבר על שני אופנים חשובים לתיעוד של אחריות:

מימד אחר של אחריות הוא יכולת הפרשנות, שכוללת את ההבנה של ההחלטות של מודל הלמידה העמוקה, שבהן בני אדם יכולים לזהות את המאפיינים שמובילים לחיזוי. בנוסף, יכולת ההסבר היא היכולת להסביר את ההחלטות האוטומטיות של מודל באופן שאנשים יכולים להבין.

מידע נוסף על בניית אמון המשתמשים במערכות AI זמין בקטע Explainability + Trust (הסבר + אמון) במדריך לאנשים ול-AI. אפשר גם לעיין במקורות המידע של Google בנושא הסברנות כדי לקבל דוגמאות מהעולם האמיתי ושיטות מומלצות.