उत्तरदेयता
संग्रह की मदद से व्यवस्थित रहें
अपनी प्राथमिकताओं के आधार पर, कॉन्टेंट को सेव करें और कैटगरी में बांटें.
जवाबदेही का मतलब है कि एआई सिस्टम के असर की ज़िम्मेदारी लेना.
आम तौर पर, जवाबदेही में पारदर्शिता या सिस्टम के व्यवहार और संगठन की प्रोसेस के बारे में जानकारी शेयर करना शामिल होता है. इसमें, मॉडल और डेटासेट बनाने, उन्हें ट्रेन करने, और उनका आकलन करने के तरीके को दस्तावेज़ में लिखकर शेयर करना शामिल हो सकता है. यहां दी गई साइटों पर, जवाबदेही से जुड़े दस्तावेज़ों के दो अहम तरीकों के बारे में बताया गया है:
जवाबदेही का एक और पहलू समझने लायक होना है. इसमें मशीन लर्निंग मॉडल के फ़ैसलों को समझना शामिल है. इसमें इंसान, उन सुविधाओं की पहचान कर पाते हैं जिनसे अनुमान लगाया जाता है. इसके अलावा, एक्सप्लेनेबिलिटी का मतलब है कि मॉडल के अपने-आप लिए गए फ़ैसलों को ऐसे तरीके से समझाया जा सके जिसे इंसान समझ सकें.
लोग और एआई गाइडबुक के एक्सप्लेनेबिलिटी + ट्रस्ट सेक्शन में, एआई सिस्टम में उपयोगकर्ता का भरोसा बढ़ाने के बारे में ज़्यादा जानें.
असल ज़िंदगी के उदाहरणों और सबसे सही तरीकों के लिए, एक्सप्लेनेबिलिटी से जुड़े Google के संसाधन भी देखे जा सकते हैं.
जब तक कुछ अलग से न बताया जाए, तब तक इस पेज की सामग्री को Creative Commons Attribution 4.0 License के तहत और कोड के नमूनों को Apache 2.0 License के तहत लाइसेंस मिला है. ज़्यादा जानकारी के लिए, Google Developers साइट नीतियां देखें. Oracle और/या इससे जुड़ी हुई कंपनियों का, Java एक रजिस्टर किया हुआ ट्रेडमार्क है.
आखिरी बार 2025-07-27 (UTC) को अपडेट किया गया.
[null,null,["आखिरी बार 2025-07-27 (UTC) को अपडेट किया गया."],[[["\u003cp\u003eAccountability in AI involves taking ownership for the effects of a system, often achieved through transparency about the system's development and behavior.\u003c/p\u003e\n"],["\u003cp\u003eTransparency can be enhanced using documentation practices like Model Cards and Data Cards, which provide information about models and datasets.\u003c/p\u003e\n"],["\u003cp\u003eInterpretability and explainability are crucial aspects of accountability, enabling understanding of model decisions and providing human-understandable explanations for automated actions.\u003c/p\u003e\n"],["\u003cp\u003eFostering user trust in AI systems requires focusing on explainability and transparency, with further resources available in Google's Responsible AI Practices and Explainability Resources.\u003c/p\u003e\n"]]],[],null,["# Accountability\n\n\u003cbr /\u003e\n\n**Accountability** means owning responsibility for the effects of an AI system.\nAccountability typically involves **transparency**, or sharing information about\nsystem behavior and organizational process, which may include documenting and\nsharing how models and datasets were created, trained, and evaluated. The\nfollowing sites explain two valuable modes of accountability documentation:\n\n- [Model Cards](https://modelcards.withgoogle.com/about)\n- [Data Cards](https://sites.research.google/datacardsplaybook/)\n\nAnother dimension of accountability is **interpretability** , which involves the\nunderstanding of ML model decisions, where humans are able to identify features\nthat lead to a prediction. Moreover, **explainability** is the ability for a\nmodel's automated decisions to be explained in a way for humans to understand.\n\nRead more about building user trust in AI systems in the [Explainability +\nTrust](https://pair.withgoogle.com/chapter/explainability-trust/) section of the\n[People + AI Guidebook](https://pair.withgoogle.com/guidebook).\nYou can also check out [Google's Explainability Resources](https://explainability.withgoogle.com/)\nfor real life examples and best practices."]]