L'ML ha il potenziale di trasformare la società in molti modi significativi, positivi o negativi. È fondamentale considerare le implicazioni etiche dei tuoi modelli e dei sistemi di cui fanno parte.
I tuoi progetti di ML devono essere utili alla società. Non devono causare danni o essere suscettibili di uso improprio. Non devono perpetuare, rafforzare o esacerbare pregiudizi o bias. Non devono raccogliere o utilizzare dati personali in modo irresponsabile.Principi dell'IA di Google
Google sostiene lo sviluppo di applicazioni di ML e IA che rispettano i suoi principi dell'IA. I principi di Google si basano sui seguenti concetti:
- Equità
- Privacy
- Trasparenza
- Sicurezza
Equità
Evitare di creare o di rafforzare pregiudizi. I modelli mostrano bias quando i loro dati di addestramento presentano alcune delle seguenti caratteristiche:
Non rispecchia la popolazione reale dei suoi utenti.
Mantiene decisioni o risultati viziati da pregiudizi, ad esempio decisioni relative alla giustizia penale come la durata della reclusione.
Utilizza funzionalità con una maggiore capacità predittiva per determinati gruppi di utenti.
Gli esempi precedenti sono solo alcuni dei modi in cui i modelli diventano sbilanciati. Comprendere approfonditamente i dati è fondamentale per rilevare e risolvere eventuali bias contenuti. Il primo passaggio per sviluppare modelli equi è verificare che i dati di addestramento riflettano con precisione la distribuzione dei tuoi utenti. Di seguito sono riportate altre pratiche utili per creare modelli equi:
Identifica i gruppi sottorappresentati nei set di dati di valutazione o i gruppi che potrebbero avere una qualità del modello peggiore rispetto ad altri gruppi. Potresti dover eseguire un oversampling di un sottogruppo di utenti per aumentare la loro presenza nei dati di addestramento.
Utilizza set di dati di riferimento (noti anche come set di dati di benchmark) per convalidare il modello in base ai problemi di equità e rilevare i bias impliciti.
Evita di includere caratteristiche sensibili nei set di dati, come genere o etnia.
Evita di includere funzionalità con scarsa capacità empirica o esplicativa, ma soprattutto in contesti sensibili in cui il modello addestrato viene utilizzato per eseguire attività ad alto impatto in aree come sanità, finanza, istruzione, occupazione e così via. Ad esempio, in un modello per l'approvazione dei mutui ipotecari, non includere i nomi nei dati di addestramento. Non solo il nome di un richiedente è irrilevante per l'attività di previsione, ma lasciare una funzionalità così irrilevante nel set di dati ha anche il potenziale di creare pregiudizi impliciti o danni allocati. Ad esempio, il modello potrebbe correlare i nomi maschili con una probabilità maggiore di rimborso o viceversa.
Misura il potenziale impatto negativo che le previsioni di un modello potrebbero avere su gruppi specifici e valuta le tecniche di correzione intenzionale del bias se riscontri un impatto negativo in un contesto sensibile.
Privacy
Incorporare i principi della privacy by design fin dall'inizio.
Di seguito sono riportate le leggi e le norme sulla privacy che devi conoscere e rispettare:
Digital Markets Act (DMA) dell'Unione Europea per il consenso alla condivisione o all'utilizzo di dati personali.
Leggi del GDPR dell'Unione Europea.
Inoltre, assicurati di rimuovere tutte le informazioni che consentono l'identificazione personale (PII) dai set di dati e verifica che i repository di modelli e dati siano configurati con le autorizzazioni corrette, ad esempio non siano leggibili da tutti.
Trasparenza
Rendere conto alle persone. Ad esempio, semplifica la comprensione da parte di altri di cosa fa il tuo modello, come lo fa e perché lo fa. Schede dei modelli forniscono un modello per documentare il modello e creare artefatti di trasparenza.
Sicurezza
Progettare modelli per operare in sicurezza in condizioni ostili. Ad esempio, testa il tuo modello con input potenzialmente ostili per verificare che sia sicuro. Inoltre, controlla la presenza di potenziali condizioni di errore. In genere i team utilizzano set di dati appositamente progettati per testare i modelli con input o condizioni che hanno causato il fallimento del modello in passato.
Verifica di aver compreso
Tieni sempre conto dei contesti sociali più ampi in cui operano i tuoi modelli. Assicurati che la gestione dei dati sensibili non violi questioni di privacy, non perpetui pregiudizi o non violi la proprietà intellettuale di qualcun altro.