Introduzione all'IA responsabile

Come sviluppiamo i sistemi di AI in modo responsabile e su vasta scala? Scopri di più sull'AI responsabile, sui concetti e sui termini pertinenti e su come implementare queste pratiche nei prodotti.

Introduzione

L'intelligenza artificiale (AI) è alla base di molti servizi e app utilizzati nella vita di tutti i giorni. Con miliardi di utenti di AI in vari campi, dal business all'assistenza sanitaria all'istruzione, è fondamentale che le principali aziende di AI lavorino per garantire che i vantaggi di queste tecnologie superino i danni, al fine di creare le esperienze più utili, sicure e affidabili per tutti.

L'AI responsabile prende in considerazione l'impatto sociale dello sviluppo e della scalabilità di queste tecnologie, inclusi i potenziali danni e i relativi vantaggi. I Principi dell'AI forniscono un framework che include obiettivi per le applicazioni di AI e applicazioni che non perseguiremo nello sviluppo dei sistemi di AI.

Dimensioni AI responsabili

Con l'accelerazione dello sviluppo dell'AI e la sua diffusione sempre più ampia, è fondamentale incorporare le pratiche di AI responsabile in ogni fase del flusso di lavoro, dall'ideazione al lancio. Le seguenti dimensioni sono componenti chiave dell'AI responsabile e sono importanti da considerare durante tutto il ciclo di vita del prodotto.

Correttezza

La fairness riguarda i possibili risultati disparati degli utenti finali in relazione a caratteristiche sensibili come gruppo etnico, reddito, orientamento sessuale o genere tramite un processo decisionale algoritmico. Ad esempio, un algoritmo di assunzione potrebbe avere dei pregiudizi per i candidati con nomi associati a un determinato genere o etnia?

Scopri di più su come i sistemi di machine learning potrebbero essere soggetti a pregiudizi umani in questo video:

Scopri come prodotti come la Ricerca e Foto hanno migliorato la rappresentazione della tonalità della pelle.

Per altri termini correlati all'equità del machine learning, consulta il glossario di machine learning: Fairness | Google for Developers. Per ulteriori informazioni, il modulo Fairness del Machine Learning Crash Course fornisce un'introduzione al machine learning.

People + AI Research (PAIR) offre esperimenti interattivi relativi all'AI, tra cui Misurazione dell'equità e bias nascosti per illustrare questi concetti.

Responsabilità

Responsabilità significa essere responsabile degli effetti di un sistema di AI. Ciò comporta la trasparenza o la condivisione di informazioni sul comportamento del sistema e sul processo organizzativo, che possono includere la documentazione e la condivisione della modalità di creazione, addestramento e valutazione dei modelli e dei set di dati. Le schede dei modelli e le schede dei dati sono esempi di artefatti di trasparenza che possono aiutare a organizzare i fatti essenziali dei modelli e dei set di dati ML in modo strutturato.

Un'altra dimensione di responsabilizzazione è l'interpretabilità, che include la comprensione delle decisioni del modello di ML, in cui le persone sono in grado di identificare le funzionalità che portano a una previsione. Inoltre, la spiegabilità è la capacità di spiegare le decisioni automatiche di un modello in modo che le persone possano capire.

Scopri di più sulla creazione di fiducia degli utenti nei sistemi di AI nel capitolo Explainability + Trust della Guida di People + AI e nella sezione Interpretabilità delle pratiche di AI responsabile di Google.

Sicurezza

La sicurezza AI include un insieme di tecniche di progettazione e operative da seguire per evitare e contenere azioni che possono causare danni, intenzionalmente o involontariamente. Ad esempio, i sistemi si comportano come previsto, anche di fronte a una violazione della sicurezza o a un attacco mirato? Il tuo sistema di AI è sufficientemente robusto per funzionare in modo sicuro anche se perturbato? Come prevedi in anticipo per prevenire o evitare i rischi? Il vostro impianto è affidabile e stabile sotto pressione?

La sezione relativa alla sicurezza delle pratiche di AI responsabile indica le prassi consigliate per proteggere i sistemi di AI dagli attacchi, inclusi i test dell'opposizione. Scopri di più sul nostro lavoro in questo ambito e sulle lezioni apprese nel post del blog di Keyword, il team AI Red di Google: gli hacker etici che rendono più sicura l'AI.

Privacy

Le pratiche relative alla privacy nell'AI responsabile (consulta la sezione Privacy delle Pratiche di AI responsabile di Google) comportano la considerazione di potenziali implicazioni sulla privacy quando si utilizzano dati sensibili. Ciò include non solo il rispetto dei requisiti legali e normativi, ma anche le norme sociali e le aspettative tipiche degli utenti. Ad esempio, quali salvaguardie devono essere messe in atto per garantire la privacy delle persone, considerando che i modelli di ML potrebbero ricordare o rivelare aspetti dei dati ai quali sono stati esposti? Quali sono le azioni necessarie per garantire agli utenti una trasparenza e un controllo adeguati dei loro dati?

Scopri di più sulla privacy del machine learning tramite le procedure dettagliate interattive di PAIR Explorables:

AI responsabile nei modelli generativi

L'avvento di modelli generativi di grandi dimensioni introduce nuove sfide nell'implementazione di pratiche di AI responsabile grazie alle loro capacità di output potenzialmente aperte e ai numerosi potenziali utilizzi a valle. Oltre ai principi dell'AI, Google ha stabilito le Norme sull'utilizzo proibito dell'AI e la Guida all'AI generativa per gli sviluppatori.

Scopri di più su come i team di Google utilizzano l'AI generativa per creare nuove esperienze per gli utenti di Google Generative AI. Su questo sito offriamo anche indicazioni su sicurezza ed equità, immediata ingegneria e test di contraddizione per i modelli generativi. Per una procedura dettagliata interattiva sui modelli linguistici, vedi il report COPPIA Explorable: What Learn Language Models?

Risorse aggiuntive

Perché ci concentriamo sull'AI - Google AI

Procedura di revisione dell'AI di Google

Procedura di revisione dei principi di AI | AI di Google:

Toolkit per l'AI responsabile | TensorFlow