Equità: tipi di bias

I modelli di machine learning (ML) non sono di per sé obiettivi. Gli esperti di ML addestrano i modelli fornendo un set di dati di esempi di addestramento e l'intervento umano nella fornitura e nella cura di questi dati può rendere le predizioni di un modello vulnerabili ai bias.

Quando si creano modelli, è importante conoscere i pregiudizi umani comuni che possono manifestare nei tuoi dati, così puoi adottare misure proattive per mitigare e gli effetti sonori.

Bias di segnalazione

Bias storico

Bias di automazione

Bias di selezione

Il bias di selezione si verifica se gli esempi di un set di dati vengono scelti in un modo che non rispecchia la loro distribuzione nel mondo reale. I bias di selezione possono assumere molte forme diverse, tra cui bias di copertura, bias di mancata risposta e bias di campionamento.

Bias di copertura

Bias di non risposta

Bias di campionamento

Bias di attribuzione del gruppo

Il bias di attribuzione di gruppo è la tendenza a generalizzare ciò che è vero per i singoli individui all'intero gruppo a cui appartengono. I bias di attribuzione di gruppo si manifestano spesso nei due seguenti casi: moduli.

Bias di affinità

Bias di omogeneità del gruppo esterno

Pregiudizi impliciti

Bias di conferma

Bias dell'esaminatore

Esercizio: verifica di aver compreso

Quali dei seguenti tipi di bias potrebbero aver contribuito alle previsioni disallineate nel modello di ammissione alle università descritto di l'introduzione?
Bias storico
Il modello di ammissione è stato addestrato sulla base dei registri degli studenti del passato 20 anni. Se gli studenti appartenenti a minoranze fossero sottorappresentati in questi dati, il modello avrebbe potuto riprodurre le stesse disuguaglianze storiche quando si fanno previsioni sui nuovi dati degli studenti.
Bias di affinità
Il modello di ammissione è stato addestrato da studenti universitari in attività, che potrebbero avere avuto una preferenza inconscia per l'ammissione di studenti provenienti da contesti simili ai loro, il che potrebbe aver influito sulla modalità di cura o di creazione di funzionalità dei dati su cui è stato addestrato il modello.
Bias di conferma
Il modello di ammissione è stato addestrato da studenti universitari in corso, che probabilmente avevano convinzioni preesistenti su quali tipi di qualifiche sono correlate al successo nel programma di informatica. Potrebbero hanno inavvertitamente selezionato o feature engineering i dati in modo che il modello ha confermato queste convinzioni esistenti.
Bias di automazione
I bias dell'automazione potrebbero spiegare perché il comitato di ammissione ha scelto usare un modello di ML per prendere decisioni di ammissione; potrebbero avere ritiene che un sistema automatizzato avrebbe prodotto risultati migliori di decisioni prese dagli esseri umani. Tuttavia, i bias di automazione nessun insight sul motivo per cui le previsioni del modello sono risultate alterate.