مسئوليت
پاسخگویی به معنای مسئولیت پذیری در قبال اثرات یک سیستم هوش مصنوعی است. پاسخگویی معمولاً شامل شفافیت یا به اشتراک گذاری اطلاعات در مورد رفتار سیستم و فرآیند سازمانی است که ممکن است شامل مستندسازی و به اشتراک گذاری نحوه ایجاد، آموزش و ارزیابی مدل ها و مجموعه داده ها باشد. سایت های زیر دو حالت ارزشمند از اسناد مسئولیت پذیری را توضیح می دهند:
بعد دیگر مسئولیتپذیری، تفسیرپذیری است که شامل درک تصمیمات مدل ML است، جایی که انسانها قادر به شناسایی ویژگیهایی هستند که منجر به پیشبینی میشوند. بهعلاوه، توضیحپذیری ، توانایی تصمیمهای خودکار یک مدل است تا بهگونهای توضیح داده شود که انسانها آن را بفهمند.
درباره ایجاد اعتماد کاربران به سیستم های هوش مصنوعی در بخش توضیح پذیری + اعتماد کتاب راهنمای افراد + هوش مصنوعی بیشتر بخوانید. همچنین میتوانید منابع توضیحپذیری Google را برای مثالهای واقعی و بهترین شیوهها بررسی کنید.
جز در مواردی که غیر از این ذکر شده باشد،محتوای این صفحه تحت مجوز Creative Commons Attribution 4.0 License است. نمونه کدها نیز دارای مجوز Apache 2.0 License است. برای اطلاع از جزئیات، به خطمشیهای سایت Google Developers مراجعه کنید. جاوا علامت تجاری ثبتشده Oracle و/یا شرکتهای وابسته به آن است.
تاریخ آخرین بهروزرسانی 2025-02-25 بهوقت ساعت هماهنگ جهانی.
[null,null,["تاریخ آخرین بهروزرسانی 2025-02-25 بهوقت ساعت هماهنگ جهانی."],[[["Accountability in AI involves taking ownership for the effects of a system, often achieved through transparency about the system's development and behavior."],["Transparency can be enhanced using documentation practices like Model Cards and Data Cards, which provide information about models and datasets."],["Interpretability and explainability are crucial aspects of accountability, enabling understanding of model decisions and providing human-understandable explanations for automated actions."],["Fostering user trust in AI systems requires focusing on explainability and transparency, with further resources available in Google's Responsible AI Practices and Explainability Resources."]]],[]]