Etica e sicurezza di IA e ML

Il ML ha il potenziale per trasformare la società in molti modi significativi, sia in positivo che in negativo. È fondamentale considerare le conseguenze etiche dei tuoi modelli e dei sistemi di cui fanno parte.

Come ogni tecnologia sviluppata da Google, i tuoi progetti ML devono essere utili alla società. Non devono causare danni o essere vulnerabili a un uso improprio. Non devono perpetuare, rafforzare o esacerbare pregiudizi o pregiudizi. Non devono raccogliere o utilizzare dati personali in modo irresponsabile.

Principi dell'IA di Google

I progetti ML devono rispettare i principi dell'IA di Google. Il sito sulle best practice per l'IA responsabile (RAI) aiuta i Googler a sviluppare soluzioni ML eticamente corrette, in linea con i principi dell'IA di Google.

Le Smart Practices di RAI sono linee guida fruibili che i team possono implementare per sviluppare IA e ML in modo responsabile. Le soluzioni ML devono seguire le indicazioni di Google nei seguenti domini:

  • Correttezza
  • Privacy
  • Trasparenza
  • Sicurezza

Per domande o dubbi relativi al machine learning e all'etica, consulta il PCounsel e il Privacy Working Group del tuo prodotto.

Correttezza

Evita di creare o di rafforzare pregiudizi ingiusti. I modelli presentano bias quando i dati di addestramento hanno alcune delle seguenti caratteristiche:

  • Non riflette la popolazione reale dei loro utenti.

  • Preserva le decisioni o i risultati di parte, ad esempio le decisioni del tribunale penale come i tempi di detenzione.

  • Utilizza funzionalità con maggiore capacità predittiva per determinati gruppi di utenti.

Gli esempi precedenti sono solo alcuni modi in cui i modelli diventano pregiudizi. Comprendere in modo approfondito i dati è fondamentale per individuare e risolvere eventuali pregiudizi che contengono. Il primo passo per sviluppare modelli equi è verificare che i dati di addestramento riflettano in modo accurato la distribuzione dei tuoi utenti. Di seguito sono riportate ulteriori pratiche per contribuire a creare modelli equi:

  • Identifica i gruppi sottorappresentati nei set di dati di valutazione o nei gruppi che potrebbero riscontrare una qualità del modello peggiore rispetto ad altri gruppi. Potrebbe essere necessario sovracampionare un sottogruppo di utenti per aumentare la loro presenza nei dati di addestramento.

  • Utilizza set di dati dorati (noti anche come set di dati di benchmark) per convalidare il modello in base a problemi di equità e rilevare bias impliciti.

  • Evita di includere caratteristiche sensibili nei set di dati, come genere o etnia.

  • Evita di includere funzionalità con poco potere empirico o esplicativo, ma soprattutto in contesti sensibili in cui il modello addestrato viene utilizzato per eseguire attività ad alto impatto in settori come la sanità, la finanza, l'istruzione, l'impiego e così via. Ad esempio, in un modello per l'approvazione dei mutui per la casa, non includere nomi nei dati di addestramento. Non solo il nome di un richiedente è irrilevante per l'attività di previsione, ma lasciare una caratteristica irrilevante nel set di dati potrebbe anche creare bias impliciti o danni allocativi. Ad esempio, il modello potrebbe mettere in correlazione i nomi di sesso maschile con una maggiore probabilità di rimborso, o viceversa.

  • Misura il potenziale impatto negativo che le previsioni di un modello potrebbero avere su gruppi specifici e prendi in considerazione tecniche di correzione dei bias intenzionali se riscontri un impatto negativo in un contesto sensibile.

Per ulteriori informazioni sull'equità in termini di IA ed ML, consulta la pagina sull'equità nelle pratiche intelligenti e il modulo Correttezza del corso sugli arresti anomali del machine learning.

Privacy

Incorporare i principi della privacy by design sin dall'inizio. Come ogni nuova funzionalità o prodotto di Google, il tuo modello deve essere esaminato dal Gruppo di lavoro sulla privacy della tua area di prodotto. Pertanto, crea in anticipo un documento di progettazione della privacy per ricevere un feedback iniziale.

Di seguito sono riportate le leggi e le norme sulla privacy che è importante conoscere e rispettare:

Di seguito sono riportate le Norme di tutela della privacy specifiche di Google da rispettare:

  • Normative sull'eliminazione.

  • BCID (Binary and Configuration ID) di livello 4 per impedire l'accesso al sistema da parte di codice dannoso o compromesso.

  • Rimuovi tutte le PII dai set di dati e verifica che il modello e i repository di dati siano configurati con le autorizzazioni corrette, ad esempio se non sono leggibili.

Il seguente video fornisce una panoramica generale dei problemi relativi alla privacy:

Per ulteriori informazioni sulla privacy per IA e ML, consulta la pagina sulla privacy delle pratiche intelligenti.

Trasparenza

Essere responsabile verso le persone. Ad esempio, consenti agli altri di capire facilmente cosa fa il tuo modello, come fa e perché lo fa. Le schede dei modelli forniscono un modello per documentare il modello e creare artefatti di trasparenza.

Per ulteriori informazioni sulla trasparenza per IA e ML, consulta la pagina sulla trasparenza delle pratiche intelligenti.

Sicurezza

Progettare modelli per operare in sicurezza in condizioni avversarie. Ad esempio, testa il modello con potenziali input ostili per confermarne la sicurezza. Inoltre, verifica le potenziali condizioni di guasto. I team in genere utilizzano set di dati appositamente progettati per testare i propri modelli con input o condizioni che hanno causato un errore del modello in passato.

Per saperne di più sulla sicurezza, consulta la pagina relativa all'IA responsabile.

Considera sempre i contesti sociali più ampi all'interno dei quali operano i tuoi modelli. Assicurati che la gestione dei dati sensibili da parte tua non violi i problemi di privacy, non perpeti pregiudizi o non violi la proprietà intellettuale di qualcun altro.

Per informazioni sull'etica dell'IA generativa, consulta RAI Smart Practices per l'IA generativa.