Équité: types de biais

Les modèles de machine learning (ML) ne sont pas objectifs par nature. professionnels du ML entraîner des modèles en leur fournissant un ensemble de données composé d'exemples d'entraînement dans la fourniture et le traitement de ces données peut rendre les prédictions peuvent être biaisées.

Lors de la création de modèles, il est important de connaître les biais humains courants qui peuvent dans vos données. Vous pouvez ainsi prendre des mesures proactives pour atténuer les effets de les effets.

Biais de fréquence

Biais historique

Biais d'automatisation

Biais de sélection

Un biais de sélection se produit lorsqu'un les exemples d'ensembles de données sont choisis d'une manière qui ne reflète pas distribution dans le monde réel. Le préjugé de sélection peut prendre de nombreuses formes différentes, notamment le biais de couverture, le préjugé de non-réponse et le préjugé d'échantillonnage.

Biais de couverture

Biais de non-réponse

Biais d'échantillonnage

Biais de représentativité

Biais de représentativité est une tendance à généraliser ce qui est vrai pour les individus à l'ensemble du groupe pour auxquels ils appartiennent. Le biais de représentativité se manifeste souvent dans les deux formulaires.

Biais d'appartenance

Biais d’homogénéité de l’exogroupe

Biais implicite

Biais de confirmation

Préjugé de l'expérimentateur

Exercice: tester vos connaissances

Lesquels des types de préjugés suivants auraient pu contribuer aux prédictions biaisées du modèle d'admission à l'université décrit po l'introduction ?
Biais historique
Le modèle d'admission a été entraîné sur les dossiers des élèves 20 ans. Si les étudiants issus de minorités étaient sous-représentés dans ces données, le modèle aurait pu reproduire les mêmes inégalités historiques lorsque vous faites des prédictions sur les données des nouveaux élèves.
Biais d'appartenance
Le modèle d’admission a été entraîné par des étudiants universitaires actuels, qui aurait pu avoir une préférence inconsciente pour l'admission des étudiants venant d’horizons similaires au leur, que auraient pu avoir une incidence sur la façon dont ils ont préparé ou extrait les caractéristiques des données sur lesquels le modèle a été entraîné.
Biais de confirmation
Le modèle d’admission a été entraîné par des étudiants universitaires actuels, qui avaient probablement des convictions préexistantes sur les types de qualifications à la réussite d’un programme d'informatique. Elle pourrait ont sélectionné ou manipulé les données par mégarde, afin que le modèle a affirmé ces croyances existantes.
Biais d'automatisation
Le biais d'automatisation peut expliquer pourquoi le comité des admissions a choisi d'utiliser un modèle de ML pour prendre des décisions concernant les admissions ; ils pourraient avoir pensaient qu'un système automatisé produirait de meilleurs résultats qu'avec décisions prises par des humains. Toutefois, le biais d'automatisation ne fournit comprendre pourquoi les prédictions du modèle ont fini par être biaisées.