I modelli di machine learning (ML) non sono di per sé obiettivi. Gli esperti di ML addestrano i modelli fornendo un set di dati di esempi di addestramento e l'intervento umano nella fornitura e nella cura di questi dati può rendere le predizioni di un modello vulnerabili ai bias.
Quando si creano modelli, è importante conoscere i pregiudizi umani comuni che possono manifestare nei tuoi dati, così puoi adottare misure proattive per mitigare e gli effetti sonori.
Bias di segnalazione
-
Definizione
Un bias nei report si verifica quando la frequenza di gli eventi, le proprietà e/o i risultati acquisiti in un set di dati riflettono accuratamente la frequenza concreta. Questo pregiudizio può presentarsi perché le persone tendono a concentrarsi sulla documentazione delle circostanze insolito o particolarmente memorabile, supponendo che l'ordinario non devono essere registrati.
-
Esempio
Un modello di analisi del sentiment viene addestrato per prevedere se i libri le recensioni sono positive o negative in base a un corpus di utenti contenuti inviati a un noto sito web. La maggior parte delle recensioni in per l'addestramento di un set di dati che riflettono opinioni estreme (revisori che amava o odiava un libro), perché era meno probabile che le persone lo inviassero la recensione di un libro se non ha ricevuto una risposta forte. Di conseguenza, il modello è meno in grado di prevedere correttamente il sentiment delle recensioni che utilizzano un linguaggio più sottile per descrivere un libro.
Fai clic su . chevron_left per la definizione.
Bias storico
-
Definizione
Bias storico si verifica quando i dati storici riflette le disuguaglianze esistenti al momento nel mondo.
-
Esempio
Un set di dati relativo alle abitazioni per la città degli anni '60 contiene i dati sui prezzi delle abitazioni che riflette pratiche di prestito discriminatorio in vigore durante il decennio.
Fai clic su . chevron_left per la definizione.
Bias di automazione
-
Definizione
Il bias di automazione tende a favorire i risultati generati da sistemi automatici rispetto a quelli generati da sistemi sistemi, indipendentemente dai tassi di errore di ciascuno.
-
Esempio
I professionisti di ML che lavoravano per un produttore di pignoni erano impazienti di implementare il nuovo "rivoluzionario" modello che hanno addestrato per identificare difetti dei denti, fino a quando il supervisore della fabbrica ha indicato che i tassi di precisione e richiamo del modello erano entrambi inferiori del 15% rispetto a quelli degli ispettori umani.
Fai clic su chevron_left per la definizione.
Bias di selezione
Il bias di selezione si verifica se gli esempi di un set di dati vengono scelti in un modo che non rispecchia la loro distribuzione nel mondo reale. I bias di selezione possono assumere molte forme diverse, tra cui bias di copertura, bias di mancata risposta e bias di campionamento.
Bias di copertura
-
Definizione
Bias di copertura si verifica se i dati non sono selezionati in rappresentativo.
-
Esempio
un modello viene addestrato per prevedere le vendite future di un nuovo prodotto, sui sondaggi telefonici condotti su un campione di consumatori che hanno acquistato del prodotto. Consumatori che invece hanno scelto di acquistare un prodotto concorrente non sono stati intervistati e, di conseguenza, questo gruppo di persone non ha rappresentati nei dati di addestramento.
Fai clic su . chevron_left per la definizione.
Bias di non risposta
-
Definizione
Errore di mancata risposta (noto anche come pregiudizi di partecipazione) si verifica quando i dati non rappresentativi a causa di lacune nella partecipazione alla raccolta dei dati e il processo di sviluppo.
-
Esempio
un modello viene addestrato per prevedere le vendite future di un nuovo prodotto, sui sondaggi telefonici condotti su un campione di consumatori che hanno acquistato del prodotto e con un campione di consumatori che hanno acquistato un prodotto concorrente prodotto. I consumatori che hanno acquistato il prodotto concorrente avevano l'80% di probabilità in più di rifiutarsi di compilare il sondaggio e i loro dati erano sottorappresentati nel campione.
Fai clic su . chevron_left per la definizione.
Bias di campionamento
-
Definizione
Il bias di campionamento si verifica se la randomizzazione corretta non viene utilizzata durante la raccolta dei dati.
-
Esempio
Un modello viene addestrato per prevedere le vendite future di un nuovo prodotto in base a sondaggi telefonici condotti con un campione di consumatori che hanno acquistato il prodotto e con un campione di consumatori che hanno acquistato un prodotto concorrente. Invece di scegliere come target i consumatori in modo casuale, il sondaggista ha scelto i primi 200 consumatori che hanno risposto a un'email, che potrebbero essere stati più entusiasti del prodotto rispetto agli acquirenti medi.
Fai clic su chevron_left per la definizione.
Bias di attribuzione del gruppo
Il bias di attribuzione di gruppo è la tendenza a generalizzare ciò che è vero per i singoli individui all'intero gruppo a cui appartengono. I bias di attribuzione di gruppo si manifestano spesso nei due seguenti casi: moduli.
Bias di affinità
-
Definizione
Il bias di affinità è una preferenza per i membri del tuo gruppo a cui anche tu appartieni o per le caratteristiche che condividi.
-
Esempio
Due professionisti di ML che addestrano un modello di curriculum per gli sviluppatori di software sono predisposti a credere che i candidati che hanno frequentato la stessa Accademia di informatica più qualificati per il ruolo.
Fai clic su . chevron_left per la definizione.
Bias di omogeneità del gruppo esterno
-
Definizione
Il bias di omogeneità fuori gruppo è una tendenza a stereotipi sui singoli membri di un gruppo a cui non si fa appartenenti o di considerarne le caratteristiche più uniformi.
-
Esempio
Due professionisti di ML che addestrano un modello di curriculum per gli sviluppatori di software sono predisposti a credere che tutti i candidati che non hanno frequentato un'accademia di informatica non hanno competenze sufficienti per il ruolo.
Fai clic su . chevron_left per la definizione.
Pregiudizi impliciti
-
Definizione
I bias impliciti si verificano quando si fanno delle ipotesi basate sul proprio modello di pensiero e di esperienze personali che non si applicano necessariamente più in generale.
-
Esempio
Un professionista di ML che addestra un modello di riconoscimento dei gesti utilizza un scuoti la testa mentre una funzionalità per indicare che una persona sta comunicando la parola "no". Tuttavia, in alcune regioni del mondo, scuotere la testa significa "sì".
Fai clic su chevron_left per la definizione.
Bias di conferma
-
Definizione
Bias di conferma si verifica quando i generatori di modelli elaborare inconsapevolmente i dati in modi che affermano convinzioni preesistenti e ipotesi.
-
Esempio
Un professionista di ML sta creando un modello che prevede l'aggressività dei cani in base a diverse caratteristiche (altezza, peso, razza, dell'ambiente di rete). Il professionista ha avuto un incontro spiacevole con barboncino giocattolo iperattivo da bambino e da allora ha associato la razza con l'aggressività. Quando selezioni i dati di addestramento del modello, ha scartato inconsapevolmente le caratteristiche che fornivano prova di docilità nei cani più piccoli.
Fai clic su chevron_left per la definizione.
Bias dell'esaminatore
-
Definizione
Il bias dello strumento sperimentale si verifica quando un generatore di modelli continua ad addestrare un modello finché non produce un risultato in linea con la sua ipotesi originale.
-
Esempio
Un professionista di ML sta creando un modello che prevede l'aggressività dei cani in base a diverse caratteristiche (altezza, peso, razza, dell'ambiente di rete). Il professionista ha avuto un incontro spiacevole con barboncino giocattolo iperattivo da bambino e da allora ha associato la razza con l'aggressività. Quando il modello addestrato ha previsto i barboncini giocattolo a essere relativamente docili, il professionista ha riaddestrato il modello diverse volte finché non ha prodotto un risultato che mostra barboncini più piccoli per essere più violenti.
Fai clic su . chevron_left per la definizione.