Rechenschaftspflicht
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Verantwortlichkeit bedeutet, dass Sie für die Auswirkungen eines KI-Systems verantwortlich sind.
Rechenschaftspflicht bedeutet in der Regel Transparenz oder die Weitergabe von Informationen zum Systemverhalten und zu organisatorischen Prozessen. Dazu gehört beispielsweise die Dokumentation, wie Modelle und Datasets erstellt, trainiert und bewertet wurden, und die Weitergabe dieser Informationen. Auf den folgenden Websites werden zwei wertvolle Methoden zur Dokumentation der Rechenschaftspflicht erläutert:
Eine weitere Dimension der Rechenschaftspflicht ist die Interpretierbarkeit. Dazu gehört das Verständnis von Entscheidungen von ML-Modellen, bei denen Menschen Merkmale identifizieren können, die zu einer Vorhersage führen. Außerdem bedeutet Erklärbarkeit, dass die automatischen Entscheidungen eines Modells auf eine für Menschen verständliche Weise erklärt werden können.
Weitere Informationen zum Aufbau des Vertrauens der Nutzer in KI-Systeme finden Sie im Abschnitt Erklärbarkeit + Vertrauen des Leitfadens Mensch + KI.
In den Erläuterungsressourcen von Google finden Sie Beispiele aus der Praxis und Best Practices.
Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.
Zuletzt aktualisiert: 2025-07-27 (UTC).
[null,null,["Zuletzt aktualisiert: 2025-07-27 (UTC)."],[[["\u003cp\u003eAccountability in AI involves taking ownership for the effects of a system, often achieved through transparency about the system's development and behavior.\u003c/p\u003e\n"],["\u003cp\u003eTransparency can be enhanced using documentation practices like Model Cards and Data Cards, which provide information about models and datasets.\u003c/p\u003e\n"],["\u003cp\u003eInterpretability and explainability are crucial aspects of accountability, enabling understanding of model decisions and providing human-understandable explanations for automated actions.\u003c/p\u003e\n"],["\u003cp\u003eFostering user trust in AI systems requires focusing on explainability and transparency, with further resources available in Google's Responsible AI Practices and Explainability Resources.\u003c/p\u003e\n"]]],[],null,["# Accountability\n\n\u003cbr /\u003e\n\n**Accountability** means owning responsibility for the effects of an AI system.\nAccountability typically involves **transparency**, or sharing information about\nsystem behavior and organizational process, which may include documenting and\nsharing how models and datasets were created, trained, and evaluated. The\nfollowing sites explain two valuable modes of accountability documentation:\n\n- [Model Cards](https://modelcards.withgoogle.com/about)\n- [Data Cards](https://sites.research.google/datacardsplaybook/)\n\nAnother dimension of accountability is **interpretability** , which involves the\nunderstanding of ML model decisions, where humans are able to identify features\nthat lead to a prediction. Moreover, **explainability** is the ability for a\nmodel's automated decisions to be explained in a way for humans to understand.\n\nRead more about building user trust in AI systems in the [Explainability +\nTrust](https://pair.withgoogle.com/chapter/explainability-trust/) section of the\n[People + AI Guidebook](https://pair.withgoogle.com/guidebook).\nYou can also check out [Google's Explainability Resources](https://explainability.withgoogle.com/)\nfor real life examples and best practices."]]