Le ML peut transformer la société de nombreuses manières significatives, que ce soit de manière positive ou négative. Il est essentiel de tenir compte des implications éthiques de vos modèles et des systèmes dont ils font partie.
Vos projets de ML doivent profiter à la société. Elles ne doivent pas causer de dommages ni être susceptibles d'être utilisées de manière abusive. Elles ne doivent pas perpétuer, renforcer ni aggraver les biais ou les préjugés. Elles ne doivent pas collecter ni utiliser de manière irresponsable des données à caractère personnel.Principes de Google concernant l'IA
Google encourage le développement d'applications de ML et d'IA conformes à ses principes concernant l'IA. Les principes de Google reposent sur les concepts suivants :
- Équité
- Confidentialité
- Transparence
- Sécurité
Équité
Éviter de créer ou de renforcer des biais injustes Les modèles présentent des biais lorsque leurs données d'entraînement présentent certaines des caractéristiques suivantes:
ne reflète pas la population réelle de ses utilisateurs ;
Maintient des décisions ou des résultats biaisés, par exemple des décisions de justice pénale telles que les peines d'emprisonnement.
Utilise des fonctionnalités plus prédictives pour certains groupes d'utilisateurs.
Les exemples précédents ne sont que quelques-uns des moyens par lesquels les modèles deviennent biaisés. Il est essentiel de comprendre vos données en détail pour identifier et résoudre les biais potentiels qu'elles contiennent. La première étape du développement de modèles équitables consiste à vérifier que les données d'entraînement reflètent précisément la distribution de vos utilisateurs. Voici d'autres pratiques qui vous aideront à créer des modèles équitables:
Identifiez les groupes sous-représentés dans les ensembles de données d'évaluation ou les groupes qui pourraient présenter une qualité de modèle inférieure à celle des autres groupes. Vous devrez peut-être suréchantillonner un sous-groupe de vos utilisateurs pour augmenter leur présence dans les données d'entraînement.
Utilisez des ensembles de données d'or (également appelés ensembles de données de référence) pour valider le modèle par rapport aux problèmes d'équité et détecter les biais implicites.
Évitez d'inclure des caractéristiques sensibles dans les ensembles de données, comme le genre ou l'appartenance ethnique.
Évitez d'inclure des caractéristiques ayant peu de pouvoir empirique ou explicatif, en particulier dans des contextes sensibles où le modèle entraîné est utilisé pour effectuer des tâches à fort impact dans des domaines tels que la santé, la finance, l'éducation, l'emploi, etc. Par exemple, dans un modèle d'approbation de prêts immobiliers, n'incluez pas de noms dans les données d'entraînement. Le nom d'un candidat n'est pas seulement sans rapport avec la tâche de prédiction, mais le fait de laisser une telle caractéristique sans rapport dans l'ensemble de données peut également créer des biais implicites ou des préjudices allocatifs. Par exemple, le modèle peut associer les noms masculins à une probabilité de remboursement plus élevée, ou inversement.
Mesurez l'impact potentiel négatif que les prédictions d'un modèle peuvent avoir sur des groupes particuliers, et envisagez des techniques de correction de biais intentionnelles si vous constatez un impact négatif dans un contexte sensible.
Confidentialité
Intégrez des principes de conception axée sur la confidentialité dès le départ.
Vous trouverez ci-dessous les lois et règles liées à la confidentialité que vous devez connaître et respecter:
Loi sur les marchés numériques (DMA) de l'Union européenne pour le consentement au partage ou à l'utilisation de données à caractère personnel.
Les lois du RGPD de l'Union européenne.
De plus, veillez à supprimer toutes les informations permettant d'identifier personnellement les utilisateurs des ensembles de données et à vérifier que votre modèle et vos dépôts de données sont configurés avec les autorisations appropriées, par exemple, qu'ils ne sont pas accessibles en lecture publique.
Transparence
Être humainement responsable Par exemple, faites en sorte que les autres puissent facilement comprendre ce que fait votre modèle, comment il le fait et pourquoi. Fiches de modèle fournissent un modèle pour documenter votre modèle et créer des artefacts de transparence.
Sécurité
Concevez des modèles pour qu'ils fonctionnent de manière sécurisée dans des conditions hostiles. Par exemple, testez votre modèle avec des entrées potentiellement hostiles pour vous assurer qu'il est sécurisé. Vérifiez également les conditions d'échec potentielles. Les équipes utilisent généralement des ensembles de données spécialement conçus pour tester leurs modèles avec des entrées ou des conditions qui ont entraîné l'échec du modèle par le passé.
Testez vos connaissances
Tenez toujours compte des contextes sociaux plus larges dans lesquels vos modèles évoluent. Veillez à ce que votre gestion des données sensibles ne porte pas atteinte à la confidentialité, ne perpétue pas les biais ni n'enfreigne la propriété intellectuelle d'autrui.