אחריותיות
אחריותיות היא היכולת לקחת אחריות על ההשפעות של מערכת בינה מלאכותית.
בדרך כלל, אחריות כוללת שקיפות, או שיתוף מידע על התנהגות המערכת ועל התהליך הארגוני. שיתוף המידע יכול לכלול תיעוד של האופן שבו המודלים ומערכי הנתונים נוצרו, הוכשרו והועברו להערכה, ושיתוף המידע הזה. באתרים הבאים מוסבר על שני אופנים חשובים לתיעוד של אחריות:
מימד אחר של אחריות הוא יכולת הפרשנות, שכוללת את ההבנה של ההחלטות של מודל הלמידה העמוקה, שבהן בני אדם יכולים לזהות את המאפיינים שמובילים לחיזוי. בנוסף, יכולת ההסבר היא היכולת להסביר את ההחלטות האוטומטיות של מודל באופן שאנשים יכולים להבין.
מידע נוסף על בניית אמון המשתמשים במערכות AI זמין בקטע Explainability + Trust (הסבר + אמון) במדריך לאנשים ול-AI.
אפשר גם לעיין במקורות המידע של Google בנושא הסברנות כדי לקבל דוגמאות מהעולם האמיתי ושיטות מומלצות.
אלא אם צוין אחרת, התוכן של דף זה הוא ברישיון Creative Commons Attribution 4.0 ודוגמאות הקוד הן ברישיון Apache 2.0. לפרטים, ניתן לעיין במדיניות האתר Google Developers. Java הוא סימן מסחרי רשום של חברת Oracle ו/או של השותפים העצמאיים שלה.
עדכון אחרון: 2025-02-25 (שעון UTC).
[null,null,["עדכון אחרון: 2025-02-25 (שעון UTC)."],[[["Accountability in AI involves taking ownership for the effects of a system, often achieved through transparency about the system's development and behavior."],["Transparency can be enhanced using documentation practices like Model Cards and Data Cards, which provide information about models and datasets."],["Interpretability and explainability are crucial aspects of accountability, enabling understanding of model decisions and providing human-understandable explanations for automated actions."],["Fostering user trust in AI systems requires focusing on explainability and transparency, with further resources available in Google's Responsible AI Practices and Explainability Resources."]]],[]]