Questa pagina contiene i termini del glossario relativo all'equità. Per tutti i termini del glossario, fai clic qui.
A
attributo
Sinonimo di funzionalità.
Nell'equità del machine learning, gli attributi spesso si riferiscono alle caratteristiche degli individui.
bias di automazione
Quando un decisore umano preferisce i consigli di un sistema di presa di decisioni automatico alle informazioni ottenute senza automazione, anche quando il sistema di presa di decisioni automatico commette errori.
Per saperne di più, consulta Equità: tipi di bias nel corso introduttivo al machine learning.
B
bias (etica/equità)
1. Stereotipare, mostrare preconcetti o favoritismi verso determinate cose, persone o gruppi rispetto ad altri. Questi bias possono influire sulla raccolta e sull'interpretazione dei dati, sulla progettazione di un sistema e sul modo in cui gli utenti interagiscono con un sistema. Le forme di questo tipo di bias includono:
- bias di automazione
- bias di conferma
- Bias dell'osservatore
- bias di attribuzione di gruppo
- bias implicito
- Bias di affinità
- bias di omogeneità del gruppo esterno
2. Errore sistematico introdotto da una procedura di campionamento o reporting. Le forme di questo tipo di bias includono:
- bias di copertura
- Bias di non risposta
- bias di partecipazione
- Bias di segnalazione
- bias di campionamento
- bias di selezione
Da non confondere con il termine di bias nei modelli di machine learning o con il bias di previsione.
Per ulteriori informazioni, consulta la sezione Equità: tipi di bias nel capitolo introduttivo al machine learning.
C
bias di conferma
La tendenza a cercare, interpretare, favorire e ricordare le informazioni in modo da confermare le proprie convinzioni o ipotesi preesistenti. Gli sviluppatori di machine learning potrebbero raccogliere o etichettare inavvertitamente i dati in modo da influenzare un risultato che supporti le loro convinzioni esistenti. Il bias di conferma è una forma di bias implicito.
Il bias dell'osservatore è una forma di bias di conferma in cui un sperimentatore continua ad addestrare i modelli finché non viene confermata un'ipotesi preesistente.
equità controfattuale
Una metrica di equità che controlla se un classificatore produce lo stesso risultato per un individuo e per un altro individuo identico al primo, tranne che per uno o più attributi sensibili. La valutazione di un classificatore per l'equità controfattuale è un metodo per evidenziare potenziali fonti di bias in un modello.
Per ulteriori informazioni, consulta una delle seguenti risorse:
- Equità: equità controfattoriale nel Machine Learning Crash Course.
- When Worlds Collide: Integrating Different Counterfactual Assumptions in Fairness
bias di copertura
Consulta la sezione relativa al bias di selezione.
D
parità demografica
Una metrica di equità che è soddisfatta se i risultati della classificazione di un modello non dipendono da un determinato attributo sensibile.
Ad esempio, se sia i lillipuziani che i brobdingnagiani si iscrivono all'Università Glubbdubdrib, la parità demografica viene raggiunta se la percentuale di lillipuziani ammessi è uguale alla percentuale di brobdingnagiani ammessi, indipendentemente dal fatto che un gruppo sia in media più qualificato dell'altro.
È diverso da pari opportunità e uguaglianza di opportunità, che consentono ai risultati di classificazione aggregati di dipendere da attributi sensibili, ma non consentono ai risultati di classificazione per determinate etichette di verità oggettive specificate di dipendere da attributi sensibili. Consulta "Attacking discrimination with smarter machine learning" per una visualizzazione che illustra i compromessi durante l'ottimizzazione per la parità demografica.
Per ulteriori informazioni, consulta Equità: parità demografica nel corso introduttivo al machine learning.
impatto differenziato
Prendere decisioni sulle persone che influiscono in modo sproporzionato su diversi sottogruppi di popolazione. Di solito si riferisce a situazioni in cui un processo decisionale algoritmico danneggia o avvantaggia alcuni sottogruppi più di altri.
Ad esempio, supponiamo che un algoritmo che determina l'idoneità di un Lilliputiano per un mutuo per una casa in miniatura abbia maggiori probabilità di classificarlo come "non idoneo" se il suo indirizzo postale contiene un determinato codice postale. Se i Lillipuziani big-endian hanno maggiori probabilità di avere indirizzi postali con questo codice postale rispetto ai Lillipuziani little-endian, questo algoritmo potrebbe avere un impatto diverso.
È diverso dal trattamento ingiusto, che si concentra sulle disparità che si verificano quando le caratteristiche dei sottogruppi sono input espliciti per un processo decisionale algoritmico.
trattamento diverso
L'inserimento degli attributi sensibili dei soggetti in un processo decisionale algoritmico in modo che i diversi sottogruppi di persone vengano trattati in modo diverso.
Ad esempio, prendiamo in considerazione un algoritmo che determina l'idoneità dei lillipuziani per un prestito per una casa in miniatura in base ai dati forniti nella richiesta di prestito. Se l'algoritmo utilizza come input l'affiliazione di un Lilliputiano come Big-Endian o Little-Endian, attua un trattamento diverso in base a questa dimensione.
È diverso dall'impatto differenziato, che si concentra sulle disparità nell'impatto sociale delle decisioni algoritmiche sui sottogruppi, indipendentemente dal fatto che questi sottogruppi siano input del modello.
E
uguaglianza di opportunità
Una metrica di equità per valutare se un modello predittivo è ugualmente efficace per tutti i valori di un attributo sensibile. In altre parole, se il risultato auspicato per un modello è la classe positiva, lo scopo è che il tasso di veri positivi sia uguale per tutti i gruppi.
L'uguaglianza di opportunità è correlata alle probabilità ugualizzate, che richiedono che entrambi i tassi di veri positivi e falsi positivi siano uguali per tutti i gruppi.
Supponiamo che l'Università di Glubbdubdrib ammetta sia i lillipuziani che i brobdingnagiani a un rigoroso programma di matematica. Le scuole secondarie dei Lillipuziani offrono un solido programma di corsi di matematica e la stragrande maggioranza degli studenti è idonea per il programma universitario. Le scuole secondarie dei Brobdingnagiani non offrono affatto corsi di matematica e, di conseguenza, un numero molto minore di loro è qualificato. L'uguaglianza di opportunità è soddisfatta per l'etichetta preferita di "ammissione" in base alla nazionalità (Lilliput o Brobdingnag) se gli studenti qualificati hanno la stessa probabilità di essere ammessi indipendentemente dal fatto che siano Lilliput o Brobdingnag.
Ad esempio, supponiamo che 100 Lillipuziani e 100 Brobdingnagiani presentino domanda di ammissione all'Università Glubbdubdrib e che le decisioni di ammissione vengano prese nel seguente modo:
Tabella 1. Lilliputian (90% idonei)
Qualificato | Non qualificato | |
---|---|---|
Ammessi | 45 | 3 |
Rifiutato | 45 | 7 |
Totale | 90 | 10 |
Percentuale di studenti idonei ammessi: 45/90 = 50% Percentuale di studenti non idonei rifiutati: 7/10 = 70% Percentuale totale di studenti di Lilliput ammessi: (45+3)/100 = 48% |
Tabella 2. Richiedenti Brobdingnagian (il 10% è idoneo):
Qualificato | Non qualificato | |
---|---|---|
Ammessi | 5 | 9 |
Rifiutato | 5 | 81 |
Totale | 10 | 90 |
Percentuale di studenti idonei ammessi: 5/10 = 50% Percentuale di studenti non idonei rifiutati: 81/90 = 90% Percentuale totale di studenti di Brobdingnag ammessi: (5+9)/100 = 14% |
Gli esempi precedenti soddisfano l'uguaglianza di opportunità per l'accettazione degli studenti qualificati perché sia i Lillipuziani che i Brobdingnagiani qualificati hanno entrambi il 50% di probabilità di essere ammessi.
Sebbene l'uguaglianza di opportunità sia soddisfatta, le seguenti due metriche di equità non lo sono:
- Parità demografica: i Lillipuziani e i Brobdingnagiani vengono ammessi all'università a tassi diversi; il 48% degli studenti Lillipuziani viene ammesso, ma solo il 14% degli studenti Brobdingnagiani.
- Probabilità uguali: sebbene gli studenti di Lilliput e Brobdingnag idonei abbiano entrambi la stessa probabilità di essere ammessi, il vincolo aggiuntivo che gli studenti di Lilliput e Brobdingnag non idonei abbiano entrambi la stessa probabilità di essere rifiutati non è soddisfatto. I Lillipuziani non idonei hanno un tasso di rifiuto del 70%, mentre i Brobdingnagiani non idonei hanno un tasso di rifiuto del 90%.
Per ulteriori informazioni, consulta Equità: parità di opportunità nel corso introduttivo al machine learning.
probabilità ugualizzate
Una metrica di equità per valutare se un modello prevede gli esiti allo stesso modo per tutti i valori di un attributo sensibile sia rispetto alla classe positiva sia rispetto alla classe negativa, non solo per una classe o per l'altra in modo esclusivo. In altre parole, sia la percentuale di veri positivi sia la percentuale di falsi negativi devono essere uguali per tutti i gruppi.
Le probabilità ugualizzate sono correlate all'uguaglianza di opportunità, che si concentra solo sui tassi di errore per una singola classe (positiva o negativa).
Ad esempio, supponiamo che l'Università di Glubbdubdrib ammetta sia i lillipuziani che i Brobdingnagiani a un rigoroso programma di matematica. I licei dei Lillipuziani offrono un solido programma di corsi di matematica e la stragrande maggioranza degli studenti è idonea al programma universitario. I Brobdingnagiani non offrono affatto corsi di matematica nelle scuole secondarie e, di conseguenza, un numero molto inferiore di studenti è qualificato. Le probabilità uguali sono soddisfatte a condizione che, indipendentemente dal fatto che un richiedente sia un lillipuziano o un brobdignag, se è qualificato, abbia le stesse probabilità di essere ammesso al programma e, se non è qualificato, abbia le stesse probabilità di essere rifiutato.
Supponiamo che 100 lillipuziani e 100 brobdingnagiani presentino domanda di ammissione all'Università di Glubbdubdrib e che le decisioni di ammissione vengano prese nel seguente modo:
Tabella 3. Lilliputian (90% idonei)
Qualificato | Non qualificato | |
---|---|---|
Ammessi | 45 | 2 |
Rifiutato | 45 | 8 |
Totale | 90 | 10 |
Percentuale di studenti idonei ammessi: 45/90 = 50% Percentuale di studenti non idonei rifiutati: 8/10 = 80% Percentuale totale di studenti lillipuziani ammessi: (45+2)/100 = 47% |
Tabella 4. Richiedenti Brobdingnagian (il 10% è idoneo):
Qualificato | Non qualificato | |
---|---|---|
Ammessi | 5 | 18 |
Rifiutato | 5 | 72 |
Totale | 10 | 90 |
Percentuale di studenti idonei ammessi: 5/10 = 50% Percentuale di studenti non idonei rifiutati: 72/90 = 80% Percentuale totale di studenti di Brobdingnag ammessi: (5+18)/100 = 23% |
Le probabilità uguali sono soddisfatte perché gli studenti di Lilliput e Brobdingnag idonei hanno entrambi una probabilità del 50% di essere ammessi e gli studenti di Lilliput e Brobdingnag non idonei hanno una probabilità dell'80% di essere rifiutati.
Le probabilità ugualizzate sono definite formalmente in "Equality of Opportunity in Supervised Learning" come segue: "il predittore Ŷ soddisfa le probabilità ugualizzate rispetto all'attributo protetto A e al risultato Y se Ŷ e A sono indipendenti, condizionale su Y".
Bias dell'esaminatore
Consulta la pagina relativa al bias di conferma.
F
vincolo di equità
Applicazione di una limitazione a un algoritmo per garantire che una o più definizioni di equità siano soddisfatte. Ecco alcuni esempi di vincoli di equità:- Esegui il post-trattamento dell'output del modello.
- Modifica della funzione di perdita per incorporare una penalizzazione per violazione di una metrica di equità.
- Aggiunta diretta di una limitazione matematica a un problema di ottimizzazione.
metrica di equità
Una definizione matematica di "equità" misurabile. Alcune metriche di equità di uso comune includono:
Molte metriche di equità sono mutuamente esclusive; consulta la sezione sull'incompatibilità delle metriche di equità.
G
bias di attribuzione di gruppo
Supponendo che ciò che è vero per un individuo valga anche per tutti nel gruppo. Gli effetti del bias di attribuzione del gruppo possono essere esacerbati se per la raccolta dei dati viene utilizzato un campionamento di convenienza. In un campione non rappresentativo, è possibile che vengano attribuite delle attribuzioni che non riflettono la realtà.
Consulta anche bias di omogeneità del gruppo esterno e bias di affinità. Per saperne di più, consulta anche Equità: tipi di bias nel corso introduttivo al machine learning.
H
bias storico
Un tipo di bias che esiste già nel mondo ed è entrato in un set di dati. Questi bias tendono a riflettere stereotipi culturali, disuguaglianze demografiche e pregiudizi esistenti nei confronti di determinati gruppi sociali.
Ad esempio, prendiamo in considerazione un modello di classificazione che predittivo se un richiedente di prestito non riuscirà a onorare il prestito. Il modello è stato addestrato con dati storici sui mancati pagamenti dei prestiti degli anni '80 di banche locali in due comunità diverse. Se in passato i richiedenti della Comunità A avevano sei volte più probabilità di non pagare i prestiti rispetto ai richiedenti della Comunità B, il modello potrebbe apprendere un bias storico che lo rende meno propenso ad approvare i prestiti nella Comunità A, anche se le condizioni storiche che hanno portato a tassi di insolvenza più elevati in quella comunità non sono più pertinenti.
Per saperne di più, consulta Equità: tipi di bias nel corso introduttivo al machine learning.
I
bias implicito
Fare automaticamente un'associazione o un'ipotesi in base ai propri modelli mentali e ricordi. I pregiudizi impliciti possono influire su quanto segue:
- Come vengono raccolti e classificati i dati.
- Come vengono progettati e sviluppati i sistemi di machine learning.
Ad esempio, quando crea un classificatore per identificare le foto di matrimoni, un ingegnere potrebbe utilizzare la presenza di un abito bianco in una foto come caratteristica. Tuttavia, gli abiti bianchi sono stati consueti solo in determinate epoche e in determinate culture.
Vedi anche bias di conferma.
Incompatibilità delle metriche di equità
L'idea che alcune nozioni di equità siano reciprocamente incompatibili e non possano essere soddisfatte contemporaneamente. Di conseguenza, non esiste un'unica metrica universale per quantificare l'equità che possa essere applicata a tutti i problemi di ML.
Sebbene possa sembrare scoraggiante, l'incompatibilità delle metriche di equità non implica che gli sforzi per l'equità siano infruttuosi. Suggerisce invece che l'equità debba essere definita in modo contestuale per un determinato problema di ML, con lo scopo di prevenire danni specifici ai relativi casi d'uso.
Per una discussione più dettagliata su questo argomento, consulta "Sulla (im)possibilità di equità".
equità individuale
Una metrica di equità che controlla se persone simili vengono classificate in modo simile. Ad esempio, la Brobdingnagian Academy potrebbe voler soddisfare la equità individuale garantendo che due studenti con voti e punteggi dei test standardizzati identici abbiano la stessa probabilità di ottenere l'ammissione.
Tieni presente che l'equità individuale si basa interamente su come definisci la"somiglianza" (in questo caso, voti e risultati dei test) e puoi rischiare di introdurre nuovi problemi di equità se la metrica di somiglianza non contiene informazioni importanti (come la rigore del curriculum di uno studente).
Per una discussione più dettagliata sull'equità individuale, consulta "Equità tramite consapevolezza".
bias di affinità
Mostrare parzialità nei confronti del proprio gruppo o delle proprie caratteristiche. Se i tester o i valutatori sono amici, familiari o colleghi dello sviluppatore di machine learning, il bias di gruppo potrebbe invalidare i test del prodotto o il set di dati.
Il bias di affinità è una forma di bias di attribuzione di gruppo. Vedi anche bias di omogeneità del gruppo esterno.
Per ulteriori informazioni, consulta la sezione Equità: tipi di bias nel capitolo introduttivo al machine learning.
No
Bias di non risposta
Consulta la sezione relativa al bias di selezione.
O
bias di omogeneità del gruppo esterno
La tendenza a considerare i membri del gruppo esterno più simili ai membri del gruppo interno quando si confrontano atteggiamenti, valori, tratti della personalità e altre caratteristiche. Gruppo di appartenenza si riferisce alle persone con cui interagisci regolarmente; gruppo esterno si riferisce alle persone con cui non interagisci regolarmente. Se crei un set di dati chiedendo alle persone di fornire attributi relativi ai gruppi di esclusione, questi attributi potrebbero essere meno sfumati e più stereotipati rispetto agli attributi elencati dai partecipanti per le persone del loro gruppo di appartenenza.
Ad esempio, i lillipuziani potrebbero descrivere le case di altri lillipuziani in modo molto dettagliato, citando piccole differenze in stili architettonici, finestre, porte e dimensioni. Tuttavia, gli stessi lillipuziani potrebbero semplicemente dichiarare che i Brobdingnagiani vivono tutti in case identiche.
Il bias di omogeneità del gruppo esterno è una forma di bias di attribuzione di gruppo.
Vedi anche bias di affinità.
P
bias di partecipazione
Sinonimo di bias di non risposta. Consulta la sezione relativa al bias di selezione.
post-elaborazione
Modifica dell'output di un modello dopo l'esecuzione del modello. Il post-trattamento può essere utilizzato per applicare vincoli di equità senza modificare i modelli stessi.
Ad esempio, è possibile applicare il post-trattamento a un classificatore binario impostando una soglia di classificazione in modo da mantenere la parità di opportunità per un determinato attributo controllando che il tasso di vero positivo sia uguale per tutti i valori dell'attributo.
parità predittiva
Una metrica di equità che controlla se, per un determinato classificatore, i tassi di precisione sono equivalenti per i sottogruppi presi in considerazione.
Ad esempio, un modello che prevede l'accettazione in un college soddisfa la parità predittiva per la nazionalità se il suo tasso di precisione è lo stesso per i lillipuziani e i brobdingnagiani.
La parità predittiva è talvolta chiamata anche parità di tariffa predittiva.
Per una discussione più dettagliata sulla parità predittiva, consulta la sezione "Definizioni di equità spiegate" (sezione 3.2.1).
parità di tariffa predittiva
Un altro nome per la parità predittiva.
pre-elaborazione
Elaborazione dei dati prima che vengano utilizzati per addestrare un modello. La preelaborazione può essere semplice come rimuovere le parole da un corpus di testo in inglese che non compaiono nel dizionario inglese oppure complessa come esprimere di nuovo i punti dati in modo da eliminare il maggior numero possibile di attributi correlati agli attributi sensibili. La preelaborazione può contribuire a soddisfare i vincoli di equità.proxy (attributi sensibili)
Un attributo utilizzato come sostituto di un attributo sensibile. Ad esempio, il codice postale di un individuo potrebbe essere utilizzato come sostituto del suo reddito, della sua etnia o della sua razza.R
bias di segnalazione
Il fatto che la frequenza con cui le persone scrivono di azioni, risultati o proprietà non rifletta le relative frequenza nel mondo reale o il grado in cui una proprietà è caratteristica di una classe di individui. Il bias di reporting può influire sulla composizione degli elementi dai quali i sistemi di machine learning apprendono.
Ad esempio, nei libri la parola risate è più prevalente di respira. Un modello di machine learning che stima la frequenza relativa di risate e respiri da un corpus di libri probabilmente determinerebbe che le risate sono più comuni del respiro.
S
bias di campionamento
Consulta la sezione relativa al bias di selezione.
bias di selezione
Errori nelle conclusioni tratte dai dati campionati a causa di un processo di selezione che genera differenze sistematiche tra i campioni osservati nei dati e quelli non osservati. Esistono le seguenti forme di bias di selezione:
- Bias di copertura: la popolazione rappresentata nel set di dati non corrisponde alla popolazione per la quale il modello di machine learning fa previsioni.
- Bias di campionamento: i dati non vengono raccolti in modo casuale dal gruppo di destinazione.
- Bias di mancata risposta (chiamato anche bias di partecipazione): gli utenti di alcuni gruppi disattivano i sondaggi a tassi diversi rispetto agli utenti di altri gruppi.
Ad esempio, supponiamo che tu stia creando un modello di machine learning che preveda il gradimento di un film da parte delle persone. Per raccogliere i dati di addestramento, distribuisci un sondaggio a tutti coloro che siedono nella prima fila di un cinema dove viene proiettato il film. A prima vista, questo potrebbe sembrare un modo ragionevole per raccogliere un set di dati. Tuttavia, questa forma di raccolta dei dati potrebbe introdurre le seguenti forme di bias di selezione:
- Bias di copertura: se esegui il campionamento da una popolazione che ha scelto di vedere il film, le previsioni del tuo modello potrebbero non essere generalizzate alle persone che non hanno già espresso quel livello di interesse per il film.
- Bias di campionamento: anziché eseguire un campionamento casuale della popolazione prevista (tutte le persone che guardano il film), hai campionato solo le persone della prima fila. È possibile che le persone sedute nella prima fila fossero più interessate al film rispetto a quelle sedute nelle altre file.
- Bias di mancata risposta: in generale, le persone con opinioni forti tendono a rispondere ai sondaggi facoltativi più spesso delle persone con opinioni moderate. Poiché il sondaggio sui film è facoltativo, le risposte hanno maggiori probabilità di formare una distribuzione bimodale rispetto a una distribuzione normale (a forma di campana).
attributo sensibile
Un attributo umano a cui può essere data una considerazione speciale per motivi legali, etici, sociali o personali.U
Mancanza di consapevolezza (di un attributo sensibile)
Una situazione in cui sono presenti attributi sensibili, ma non sono inclusi nei dati di addestramento. Poiché gli attributi sensibili sono spesso correlati ad altri attributi dei dati, un modello addestrato senza essere a conoscenza di un attributo sensibile potrebbe comunque avere un impatto diseguale rispetto a quell'attributo o violare altri vincoli di equità.