مسئوليت
با مجموعهها، منظم بمانید
ذخیره و طبقهبندی محتوا براساس اولویتهای شما.
پاسخگویی به معنای مسئولیت پذیری در قبال اثرات یک سیستم هوش مصنوعی است. پاسخگویی معمولاً شامل شفافیت یا به اشتراک گذاری اطلاعات در مورد رفتار سیستم و فرآیند سازمانی است که ممکن است شامل مستندسازی و به اشتراک گذاری نحوه ایجاد، آموزش و ارزیابی مدل ها و مجموعه داده ها باشد. سایت های زیر دو حالت ارزشمند از اسناد مسئولیت پذیری را توضیح می دهند:
بعد دیگر مسئولیتپذیری، تفسیرپذیری است که شامل درک تصمیمات مدل ML است، جایی که انسانها قادر به شناسایی ویژگیهایی هستند که منجر به پیشبینی میشوند. بهعلاوه، توضیحپذیری ، توانایی تصمیمهای خودکار یک مدل است تا بهگونهای توضیح داده شود که انسانها آن را بفهمند.
درباره ایجاد اعتماد کاربران به سیستم های هوش مصنوعی در بخش توضیح پذیری + اعتماد کتاب راهنمای افراد + هوش مصنوعی بیشتر بخوانید. همچنین میتوانید منابع توضیحپذیری Google را برای مثالهای واقعی و بهترین شیوهها بررسی کنید.
جز در مواردی که غیر از این ذکر شده باشد،محتوای این صفحه تحت مجوز Creative Commons Attribution 4.0 License است. نمونه کدها نیز دارای مجوز Apache 2.0 License است. برای اطلاع از جزئیات، به خطمشیهای سایت Google Developers مراجعه کنید. جاوا علامت تجاری ثبتشده Oracle و/یا شرکتهای وابسته به آن است.
تاریخ آخرین بهروزرسانی 2025-07-29 بهوقت ساعت هماهنگ جهانی.
[null,null,["تاریخ آخرین بهروزرسانی 2025-07-29 بهوقت ساعت هماهنگ جهانی."],[[["\u003cp\u003eAccountability in AI involves taking ownership for the effects of a system, often achieved through transparency about the system's development and behavior.\u003c/p\u003e\n"],["\u003cp\u003eTransparency can be enhanced using documentation practices like Model Cards and Data Cards, which provide information about models and datasets.\u003c/p\u003e\n"],["\u003cp\u003eInterpretability and explainability are crucial aspects of accountability, enabling understanding of model decisions and providing human-understandable explanations for automated actions.\u003c/p\u003e\n"],["\u003cp\u003eFostering user trust in AI systems requires focusing on explainability and transparency, with further resources available in Google's Responsible AI Practices and Explainability Resources.\u003c/p\u003e\n"]]],[],null,["# Accountability\n\n\u003cbr /\u003e\n\n**Accountability** means owning responsibility for the effects of an AI system.\nAccountability typically involves **transparency**, or sharing information about\nsystem behavior and organizational process, which may include documenting and\nsharing how models and datasets were created, trained, and evaluated. The\nfollowing sites explain two valuable modes of accountability documentation:\n\n- [Model Cards](https://modelcards.withgoogle.com/about)\n- [Data Cards](https://sites.research.google/datacardsplaybook/)\n\nAnother dimension of accountability is **interpretability** , which involves the\nunderstanding of ML model decisions, where humans are able to identify features\nthat lead to a prediction. Moreover, **explainability** is the ability for a\nmodel's automated decisions to be explained in a way for humans to understand.\n\nRead more about building user trust in AI systems in the [Explainability +\nTrust](https://pair.withgoogle.com/chapter/explainability-trust/) section of the\n[People + AI Guidebook](https://pair.withgoogle.com/guidebook).\nYou can also check out [Google's Explainability Resources](https://explainability.withgoogle.com/)\nfor real life examples and best practices."]]