Equità
L'equità si occupa dei possibili risultati diversi che gli utenti finali potrebbero riscontrare in relazione a caratteristiche sensibili come gruppo etnico, reddito, orientamento sessuale o genere tramite il processo decisionale algoritmico. Ad esempio, un algoritmo di selezione potrebbe avere pregiudizi a favore o contro i candidati con nomi associati a un determinato genere o etnia?
Scopri di più su come i sistemi di machine learning potrebbero essere soggetti ai pregiudizi umani in questo video:
Per un esempio pratico, scopri in che modo prodotti come la Ricerca Google e Google Foto hanno migliorato la diversità della rappresentazione della carnagione tramite la scala Monk Skin Tone.
Esistono metodi affidabili per identificare, misurare e mitigare i bias nei modelli. Il modulo Equità del corso introduttivo al machine learning offre un'analisi approfondita delle tecniche di mitigazione dell'equità e del bias.
People + AI Research (PAIR) offre esplorabili dell'IA interattive su Misurazione dell'equità e Bias nascosti per illustrare questi concetti. Per altri termini correlati all'equità del machine learning, consulta il Glossario del machine learning: equità | Google for Developers.