المساءلة
المساءلة هي تحمل مسؤولية تأثيرات نظام الذكاء الاصطناعي.
تتضمن المساءلة عادةً الشفافية، أو مشاركة معلومات عن
سلوك النظام والعملية التنظيمية، والتي قد تشمل توثيق و
مشاركة كيفية إنشاء النماذج ومجموعات البيانات وتدريبها وتقييمها. توضّح المواقع التالية طريقتَين قيّمتَين لتوثيق المساءلة:
ومن الجوانب الأخرى للمساءلة إمكانية التفسير، التي تتضمن فهم قرارات نماذج تعلُّم الآلة، حيث يتمكّن المستخدمون من تحديد السمات التي تؤدي إلى توقّع معيّن. بالإضافة إلى ذلك، التفسير هو إمكانية شرح قرارات النموذج التلقائية بطريقة يسهل على البشر فهمها.
يمكنك الاطّلاع على مزيد من المعلومات حول بناء ثقة المستخدِم في أنظمة الذكاء الاصطناعي في قسم التفسير
والثقة ضمن
دليل الأشخاص والذكاء الاصطناعي.
يمكنك أيضًا الاطّلاع على مراجع Google المتعلّقة بقابلية الشرح
للحصول على أمثلة وأفضل الممارسات في الحياة الواقعية.
إنّ محتوى هذه الصفحة مرخّص بموجب ترخيص Creative Commons Attribution 4.0 ما لم يُنصّ على خلاف ذلك، ونماذج الرموز مرخّصة بموجب ترخيص Apache 2.0. للاطّلاع على التفاصيل، يُرجى مراجعة سياسات موقع Google Developers. إنّ Java هي علامة تجارية مسجَّلة لشركة Oracle و/أو شركائها التابعين.
تاريخ التعديل الأخير: 2025-02-25 (حسب التوقيت العالمي المتفَّق عليه)
[null,null,["تاريخ التعديل الأخير: 2025-02-25 (حسب التوقيت العالمي المتفَّق عليه)"],[[["Accountability in AI involves taking ownership for the effects of a system, often achieved through transparency about the system's development and behavior."],["Transparency can be enhanced using documentation practices like Model Cards and Data Cards, which provide information about models and datasets."],["Interpretability and explainability are crucial aspects of accountability, enabling understanding of model decisions and providing human-understandable explanations for automated actions."],["Fostering user trust in AI systems requires focusing on explainability and transparency, with further resources available in Google's Responsible AI Practices and Explainability Resources."]]],[]]