المساءلة

المساءلة هي تحمل المسؤولية عن تأثيرات نظام الذكاء الاصطناعي. تتضمن المساءلة عادةً الشفافية أو مشاركة معلومات عن سلوك النظام والعملية التنظيمية، وقد يشمل ذلك توثيق ومشاركة كيفية إنشاء النماذج ومجموعات البيانات وتدريبها وتقييمها. توضّح المواقع التالية طريقتَين قيّمتَين لتوثيق المساءلة:

ومن الجوانب الأخرى للمساءلة إمكانية التفسير، التي تتضمن فهم قرارات نماذج تعلُّم الآلة، حيث يتمكّن الأشخاص من تحديد السمات التي تؤدي إلى توقّع معيّن. بالإضافة إلى ذلك، التفسير هو إمكانية شرح القرارات التلقائية للنموذج بطريقة يسهل على البشر فهمها.

يمكنك الاطّلاع على مزيد من المعلومات حول كسب ثقة المستخدمين في أنظمة الذكاء الاصطناعي في قسم التفسير والثقة ضمن دليل People + AI، وقسم التفسير ضمن ممارسات الذكاء الاصطناعي المسؤول من Google. يمكنك أيضًا الاطّلاع على مراجع Google حول التفسير للحصول على أمثلة وأفضل الممارسات في الحياة الواقعية.