אחריותיות

אחריותיות היא היכולת לקחת אחריות על ההשפעות של מערכת בינה מלאכותית. בדרך כלל, אחריות כוללת שקיפות, או שיתוף מידע על התנהגות המערכת ועל התהליך הארגוני. שיתוף המידע יכול לכלול תיעוד ושיתוף של האופן שבו המודלים ומערכי הנתונים נוצרו, הוכשרו והועמדו לבדיקה. באתרים הבאים מוסבר על שני אופנים חשובים לתיעוד של אחריות:

מימד אחר של אחריות הוא יכולת הפרשנות, שכוללת את ההבנה של ההחלטות של מודל הלמידה העמוקה, שבהן בני אדם יכולים לזהות את המאפיינים שמובילים לחיזוי. בנוסף, יכולת ההסבר היא היכולת להסביר את ההחלטות האוטומטיות של מודל באופן שאנשים יכולים להבין.

מידע נוסף על בניית אמון המשתמשים במערכות AI זמין בקטע Explainability + Trust במדריך לאנשים ול-AI, ובקטע Interpretability בשיטות אחראיות ל-AI של Google. אפשר גם לעיין במקורות המידע של Google בנושא הסברנות כדי לקבל דוגמאות מהעולם האמיתי ושיטות מומלצות.