Responsabilité
Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
La responsabilité consiste à assumer la responsabilité des effets d'un système d'IA.
La responsabilité implique généralement de la transparence, ou le partage d'informations sur le comportement du système et le processus organisationnel, ce qui peut inclure la documentation et le partage de la façon dont les modèles et les ensembles de données ont été créés, entraînés et évalués. Les sites suivants expliquent deux modes de documentation de la responsabilité utiles:
L'interprétabilité est une autre dimension de la responsabilisation. Elle implique la compréhension des décisions des modèles de ML, où les humains sont capables d'identifier les caractéristiques qui mènent à une prédiction. De plus, l'explicabilité est la capacité des décisions automatisées d'un modèle à être expliquées de manière à être compréhensibles par les humains.
Pour en savoir plus sur la façon de gagner la confiance des utilisateurs dans les systèmes d'IA, consultez la section Explicabilité et confiance du guide People + AI.
Vous pouvez également consulter les ressources d'explicabilité de Google pour obtenir des exemples concrets et des bonnes pratiques.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/07/27 (UTC).
[null,null,["Dernière mise à jour le 2025/07/27 (UTC)."],[[["\u003cp\u003eAccountability in AI involves taking ownership for the effects of a system, often achieved through transparency about the system's development and behavior.\u003c/p\u003e\n"],["\u003cp\u003eTransparency can be enhanced using documentation practices like Model Cards and Data Cards, which provide information about models and datasets.\u003c/p\u003e\n"],["\u003cp\u003eInterpretability and explainability are crucial aspects of accountability, enabling understanding of model decisions and providing human-understandable explanations for automated actions.\u003c/p\u003e\n"],["\u003cp\u003eFostering user trust in AI systems requires focusing on explainability and transparency, with further resources available in Google's Responsible AI Practices and Explainability Resources.\u003c/p\u003e\n"]]],[],null,["# Accountability\n\n\u003cbr /\u003e\n\n**Accountability** means owning responsibility for the effects of an AI system.\nAccountability typically involves **transparency**, or sharing information about\nsystem behavior and organizational process, which may include documenting and\nsharing how models and datasets were created, trained, and evaluated. The\nfollowing sites explain two valuable modes of accountability documentation:\n\n- [Model Cards](https://modelcards.withgoogle.com/about)\n- [Data Cards](https://sites.research.google/datacardsplaybook/)\n\nAnother dimension of accountability is **interpretability** , which involves the\nunderstanding of ML model decisions, where humans are able to identify features\nthat lead to a prediction. Moreover, **explainability** is the ability for a\nmodel's automated decisions to be explained in a way for humans to understand.\n\nRead more about building user trust in AI systems in the [Explainability +\nTrust](https://pair.withgoogle.com/chapter/explainability-trust/) section of the\n[People + AI Guidebook](https://pair.withgoogle.com/guidebook).\nYou can also check out [Google's Explainability Resources](https://explainability.withgoogle.com/)\nfor real life examples and best practices."]]