Equità: tipi di bias

I modelli di machine learning (ML) non sono di per sé obiettivi. Professionisti di ML addestrare i modelli fornendo loro un set di dati di esempi di addestramento e il coinvolgimento nella fornitura e nella cura di questi dati può rendere più suscettibili di bias.

Quando si creano modelli, è importante conoscere i pregiudizi umani comuni che possono manifestare nei tuoi dati, così puoi adottare misure proattive per mitigare e gli effetti sonori.

Differenziazione dei report

Bias storico

Bias di automazione

Bias di selezione

Bias di selezione si verifica se esempi di set di dati vengono scelti in un modo che non riflette la loro distribuzione nel mondo reale. I bias di selezione possono assumere molte forme diverse, tra cui bias di copertura, bias di mancata risposta e bias di campionamento.

Bias di copertura

Bias non di risposta

Bias di campionamento

Bias di attribuzione del gruppo

Bias di attribuzione del gruppo è la tendenza a generalizzare ciò che è vero degli individui all'intero gruppo per a cui appartengono. I bias di attribuzione di gruppo si manifestano spesso nei seguenti due casi: moduli.

Bias di affinità

Bias di omogeneità del gruppo esterno

Pregiudizi impliciti

Bias di conferma

Bias dell'esperimento

Allenamento: verifica le tue conoscenze

Quali dei seguenti tipi di bias potrebbero aver contribuito alle previsioni disallineate nel modello di ammissione al college descritto di l'introduzione?
Pregiudizi storici
Il modello di ammissione è stato addestrato sulla base dei registri degli studenti del passato 20 anni. Se gli studenti appartenenti a minoranze fossero sottorappresentati in questi dati, il modello avrebbe potuto riprodurre le stesse disuguaglianze storiche quando fai previsioni sui nuovi dati degli studenti.
Bias di affinità
Il modello di ammissione è stato addestrato da studenti universitari attuali, che potevano avere una preferenza inconsapevole di ammettere studenti che provengono da background simili al loro, e che avrebbero potuto influire sul modo in cui hanno curato o progettato i dati su cui è stato addestrato il modello.
Bias di conferma
Il modello di ammissione è stato addestrato da studenti universitari attuali, che probabilmente avevano delle convinzioni preesistenti sui tipi di qualifiche sono correlati al successo nel programma di informatica. Potrebbero hanno inavvertitamente selezionato o feature engineering i dati in modo che il modello ha confermato queste convinzioni esistenti.
Bias di automazione
I bias dell'automazione potrebbero spiegare perché il comitato di ammissione ha scelto usare un modello di ML per prendere decisioni di ammissione; potrebbero avere ritiene che un sistema automatizzato avrebbe prodotto risultati migliori di decisioni prese dagli esseri umani. Tuttavia, i bias di automazione nessun insight sul motivo per cui le previsioni del modello sono risultate alterate.