Le ML peut transformer la société de nombreuses façons significatives, positivement ou négativement. Il est essentiel de tenir compte des implications éthiques de vos modèles et des systèmes dont ils font partie.
Comme toute technologie développée chez Google, vos projets de ML devraient être bénéfiques pour la société. Ils ne doivent pas causer de dommages ni être susceptibles d'être utilisés de manière abusive. Ils ne doivent pas perpétuer, renforcer ni exacerber les biais ou les préjugés. Ils ne doivent pas collecter ni utiliser des données à caractère personnel de manière irresponsable.
Principes de Google concernant l'IA
Les projets de ML doivent respecter les principes de Google concernant l'IA. Le site sur les pratiques intelligentes d'IA responsable (RAI) aide les Googleurs à développer des solutions de ML éthiques et conformes aux principes de Google concernant l'IA.
Les pratiques intelligentes d'IA sont des consignes exploitables que les équipes doivent implémenter pour développer l'IA et le ML de manière responsable. Les solutions de ML doivent respecter les conseils de Google dans les domaines suivants:
- Équité
- Confidentialité
- Transparence
- Sécurité
Pour toute question ou préoccupation concernant le ML et l'éthique, consultez le PCounsel et le groupe de travail sur la confidentialité de votre produit.
Équité
Évitez de créer ou de renforcer des biais injustes. Les modèles présentent un biais lorsque leurs données d'entraînement présentent certaines des caractéristiques suivantes:
Ne reflète pas la population réelle de ses utilisateurs.
Préserve les décisions ou les résultats biaisés, comme les décisions de justice pénale, comme les périodes d'incarcération.
Utilise des fonctionnalités offrant des performances prédictives supérieures pour certains groupes d'utilisateurs.
Les exemples précédents ne sont que quelques exemples de la manière dont les modèles sont biaisés. Une compréhension approfondie de vos données est essentielle pour découvrir et résoudre les biais potentiels qu'elles contiennent. La première étape pour développer des modèles équitables consiste à vérifier que les données d'entraînement reflètent avec précision la répartition de vos utilisateurs. Voici d'autres pratiques qui vous aideront à créer des modèles équitables:
Identifiez les groupes sous-représentés dans les ensembles de données d'évaluation ou les groupes dont la qualité du modèle pourrait être inférieure à celle d'autres groupes. Vous devrez peut-être suréchantillonner un sous-groupe d'utilisateurs pour accroître leur présence dans les données d'entraînement.
Utilisez des ensembles de données de référence (également appelés ensembles de données de benchmark) pour valider le modèle vis-à-vis des problèmes d'équité et détecter les biais implicites.
Évitez d'inclure des caractéristiques sensibles dans les ensembles de données, comme le genre ou l'origine ethnique.
Évitez d'inclure des caractéristiques ayant peu de puissance empirique ou explicative, mais surtout dans les contextes sensibles où le modèle entraîné est utilisé pour effectuer des tâches à fort impact dans des domaines tels que la santé, la finance, l'éducation, l'emploi, etc. Par exemple, dans un modèle d'approbation de prêts immobiliers, n'incluez pas de noms dans les données d'entraînement. Non seulement le nom d'un candidat n'est pas pertinent pour la tâche de prédiction, mais le fait de laisser une caractéristique non pertinente dans l'ensemble de données risque également de créer un biais implicite ou des préjudices allocatifs. Par exemple, le modèle peut corréler les noms masculins avec une probabilité de remboursement plus élevée, ou inversement.
Mesurez l'impact négatif potentiel des prédictions d'un modèle sur des groupes particuliers et envisagez des techniques de correction intentionnelle des biais si vous constatez un impact négatif dans un contexte sensible.
Pour en savoir plus sur l'équité dans le domaine de l'IA et du ML, consultez la page consacrée à l'équité dans les pratiques intelligentes et le module sur l'équité dans le cours d'initiation au machine learning.
Confidentialité
Intégrez dès le départ les principes de confidentialité dès la conception. Comme pour toute nouvelle fonctionnalité ou tout nouveau produit Google, votre modèle doit être examiné par le groupe de travail sur la confidentialité de votre groupe de produits. Par conséquent, créez un document de conception de la confidentialité au plus tôt pour obtenir les premiers commentaires.
Vous trouverez ci-dessous les lois et règles liées à la confidentialité, que vous devez connaître et respecter:
Loi sur les marchés numériques (DMA, Digital Markets Act) de l'Union européenne, qui autorisent le partage ou l'utilisation de données à caractère personnel
Voici les pratiques de Google en matière de confidentialité à respecter:
les réglementations sur l'effacement.
Niveau 4 d'ID binaire et de configuration (BCID) pour empêcher un code malveillant ou compromis d'accéder à votre système.
Supprimez toutes les informations permettant d'identifier personnellement l'utilisateur des ensembles de données, et vérifiez que votre modèle et vos dépôts de données sont configurés avec les bonnes autorisations (par exemple, ils ne sont pas accessibles à tous).
La vidéo suivante offre un aperçu général des problèmes liés à la confidentialité:
Pour en savoir plus sur la confidentialité via l'IA et le ML, consultez la page Confidentialité dans Smart Practice.
Transparence
Être humainement responsable. Par exemple, faites en sorte que les autres puissent facilement comprendre ce que fait votre modèle, comment il le fait et pourquoi il le fait. Les fiches de modèle fournissent un modèle pour documenter votre modèle et créer des artefacts de transparence.
Pour en savoir plus sur la transparence concernant l'IA et le ML, consultez la page Transparence des pratiques intelligentes.
Sécurité
Concevez des modèles pour qu'ils fonctionnent de manière sécurisée dans des conditions hostiles. Par exemple, testez votre modèle avec des entrées potentiellement hostiles pour vérifier qu'il est sécurisé. De plus, vérifiez les conditions de défaillance potentielles. Les équipes utilisent généralement des ensembles de données spécialement conçus pour tester leurs modèles avec des entrées ou des conditions ayant entraîné l'échec du modèle par le passé.
Pour en savoir plus sur la sécurité, consultez la page sur l'IA responsable.
Tenez toujours compte des contextes sociaux plus larges dans lesquels vos modèles fonctionnent. Veillez à ce que le traitement des données sensibles ne porte pas atteinte aux problèmes de confidentialité, ne perpétue un biais ou ne porte atteinte à la propriété intellectuelle d'autrui.
Pour en savoir plus sur l'éthique de l'IA générative, consultez la page RAI Smart Practices for Generative AI.