Introduction to Responsible AI

Comment créer des systèmes d'IA de façon responsable et à grande échelle ? Découvrez Responsible AI, des concepts et des termes pertinents, et comment mettre en œuvre ces pratiques dans des produits.

Introduction

L'intelligence artificielle (IA) est à l'origine de nombreux services et applications que les utilisateurs utilisent au quotidien. Avec des milliards d'utilisateurs de l'IA, qu'il s'agisse d'entreprises, de soins de santé ou d'établissements scolaires, il est essentiel que les plus grandes entreprises d'IA s'assurent que les avantages de ces technologies compensent les dangers afin de créer les expériences les plus utiles, les plus sûres et les plus fiables pour tous.

L'IA responsable prend en compte l'impact sociétal du développement et de l'évolutivité de ces technologies, y compris les dangers et les avantages potentiels. Les Principes de l'IA fournissent un framework qui inclut des objectifs pour les applications d'IA, et les applications que nous n'aborderons pas dans le développement de systèmes d'IA.

Dimensions IA responsables

À mesure que le développement de l'IA accélère et devient omniprésent, il est essentiel d'incorporer des pratiques d'IA responsable à chaque étape du workflow, de la conception au lancement. Les dimensions suivantes sont des composants clés de l'IA responsable et sont importantes à tout moment du cycle de vie du produit.

Équité

L'équité tient compte des éventuels résultats disparates que peuvent rencontrer les utilisateurs finaux en ce qui concerne les caractéristiques sensibles, telles que l'origine ethnique, les revenus, l'orientation sexuelle ou le genre, via des prises de décision basées sur des algorithmes. Par exemple, un algorithme de recrutement peut-il avoir des préjugés sur ou à l'encontre des candidats dont le nom est associé à un sexe ou à une origine ethnique spécifique ?

Pour découvrir comment les systèmes de machine learning peuvent être sensibles aux biais humains, regardez cette vidéo:

Découvrez comment des produits tels que la recherche et Google Photos ont amélioré la diversité de couleurs de peau.

Pour plus d'informations sur le principe d'équité dans le domaine du machine learning, consultez la page Glossaire du machine learning : équité | Google pour les développeurs. Pour en savoir plus, le module Fairness du Cours d'initiation au Machine Learning présente l'équité dans le domaine du ML.

People + AI Research (PAIR) propose des explicables d'IA interactifs, y compris les mesures d'équité et les biais cachés, qui permettent de présenter ces concepts.

Responsabilité

Le terme Responsabilité désigne la responsabilité des effets d'un système d'IA. Cela implique de transparence ou de partager des informations sur le comportement du système et les processus organisationnels, ce qui peut inclure la documentation et le partage de la création, de l'entraînement et de l'évaluation des modèles et des ensembles de données. Les fiches modèles et les fiches de données sont des exemples d'artefacts de transparence qui peuvent aider à organiser les faits essentiels des modèles et des ensembles de données de ML de manière structurée.

Une autre dimension de la responsabilité est l'interprétabilité, c'est-à-dire que vous devez comprendre les décisions des modèles de ML, où les individus peuvent identifier les caractéristiques qui donnent lieu à une prédiction. De plus, l'explicabilité est la capacité à expliquer aux décisions automatisées d'un modèle une explication humaine.

Pour en savoir plus sur le développement de la confiance des utilisateurs dans les systèmes d'IA, consultez le chapitre Explicabilité + confiance du guide People + AI, ainsi que la section "Interprétabilité" des pratiques d'IA responsable de Google.

Sécurité

La sécurité basée sur l'IA inclut un ensemble de techniques opérationnelles et de conception à suivre pour éviter et contenir des actions pouvant endommager intentionnellement ou involontairement des utilisateurs. Par exemple, les systèmes se comportent-ils comme prévu, même en cas d'attaque de sécurité ou d'attaque ciblée ? Votre système d'IA est-il robuste pour fonctionner en toute sécurité, même en cas de perturbation ? Comment prévoyez-vous de prévenir ou d'éviter les risques ? Votre système est-il fiable et stable sous pression ?

La section sur la sécurité des pratiques d'IA responsable de Google présente les pratiques recommandées pour protéger les systèmes d'IA des attaques, y compris les tests antagonistes. Pour en savoir plus sur notre travail dans ce domaine et les leçons tirées de ce blog, consultez l'article du blog The Keyword : Google's AI Red Team: the éthiqueh hackers making AI safe.

Confidentialité

Les pratiques en matière de confidentialité dans le domaine de l'IA responsable (consultez la section sur les pratiques en matière d'IA responsable) impliquent la prise en compte des conséquences potentielles de la confidentialité des données sensibles. Cette démarche implique non seulement de respecter les obligations légales et réglementaires, mais aussi les normes sociales et les attentes individuelles typiques. Par exemple, quelles mesures doivent être mises en place pour assurer la confidentialité des individus, sachant que les modèles de ML peuvent se souvenir ou révéler certains aspects des données auxquelles ils ont été exposés ? Quelles sont les étapes à suivre pour garantir aux utilisateurs la transparence et le contrôle de leurs données ?

Pour en savoir plus sur la confidentialité du ML, suivez les tutoriels interactifs de PAIR Explorables:

Une IA responsable dans les modèles génératifs/LLM

L'avènement de grands modèles génératifs introduit de nouveaux défis concernant la mise en œuvre de pratiques d'IA responsable en raison de leurs capacités de sortie potentiellement ouvertes et de nombreuses utilisations potentielles en aval. En plus des principes d'IA, Google dispose d'une Politique d'utilisation interdite concernant l'IA générative et d'un Guide d'IA générative pour les développeurs.

Découvrez comment les équipes de Google utilisent l'IA générative pour créer de nouvelles expériences pour les utilisateurs de Google Generative AI. Sur ce site, nous proposons également des conseils sur la sécurité et l'équité, l'ingénierie rapide et les tests antagonistes pour les modèles génératifs. Pour un tutoriel interactif sur les modèles de langage, consultez le document Explorable PAIR: Qu'ont appris les modèles linguistiques ?

Autres ressources

Pourquoi nous nous concentrons sur l'IA – Google AI

Processus d'examen par l'IA de Google

Processus d'examen des principes de l'IA | Google AI:

Boîte à outils d'IA responsable | TensorFlow