Responsabilité
La responsabilité consiste à assumer la responsabilité des effets d'un système d'IA. La responsabilité implique généralement de la transparence, ou le partage d'informations sur le comportement du système et le processus organisationnel, ce qui peut inclure la documentation et le partage de la façon dont les modèles et les ensembles de données ont été créés, entraînés et évalués. Les sites suivants expliquent deux modes de documentation de la responsabilité utiles:
L'interprétabilité est une autre dimension de la responsabilisation. Elle implique la compréhension des décisions des modèles de ML, où les humains sont capables d'identifier les caractéristiques qui mènent à une prédiction. De plus, l'explicabilité est la capacité des décisions automatisées d'un modèle à être expliquées de manière à être compréhensibles par les humains.
Pour en savoir plus sur la façon de gagner la confiance des utilisateurs dans les systèmes d'IA, consultez la section Explicabilité et confiance du guide People + AI et la section sur l'interprétabilité des pratiques d'IA responsable de Google. Vous pouvez également consulter les ressources d'explicabilité de Google pour obtenir des exemples concrets et des bonnes pratiques.