المساءلة

المساءلة هي تحمل مسؤولية تأثيرات نظام الذكاء الاصطناعي. تتضمن المساءلة عادةً الشفافية، أو مشاركة معلومات عن سلوك النظام والعملية التنظيمية، والتي قد تشمل توثيق و مشاركة كيفية إنشاء النماذج ومجموعات البيانات وتدريبها وتقييمها. توضّح المواقع التالية طريقتَين قيّمتَين لتوثيق المساءلة:

ومن الجوانب الأخرى للمساءلة إمكانية التفسير، التي تتضمن فهم قرارات نماذج تعلُّم الآلة، حيث يتمكّن المستخدمون من تحديد السمات التي تؤدي إلى توقّع معيّن. بالإضافة إلى ذلك، التفسير هو إمكانية شرح قرارات النموذج التلقائية بطريقة يسهل على البشر فهمها.

يمكنك الاطّلاع على مزيد من المعلومات حول بناء ثقة المستخدِم في أنظمة الذكاء الاصطناعي في قسم التفسير والثقة ضمن دليل الأشخاص والذكاء الاصطناعي. يمكنك أيضًا الاطّلاع على مراجع Google المتعلّقة بقابلية الشرح للحصول على أمثلة وأفضل الممارسات في الحياة الواقعية.