Responsabilità

Responsabilità significa assumersi la responsabilità degli effetti di un sistema di IA. La responsabilità in genere implica trasparenza, ovvero la condivisione di informazioni sul comportamento del sistema e sui processi organizzativi, che può includere la documentazione e la condivisione di come i modelli e i set di dati sono stati creati, addestrati e valutati. I seguenti siti spiegano due modalità utili di documentazione della responsabilità:

Un'altra dimensione della responsabilità è l'interpretabilità, che comporta la comprensione delle decisioni del modello di ML, in cui le persone sono in grado di identificare le funzionalità che portano a una previsione. Inoltre, l'interpretabilità è la capacità di spiegare le decisioni automatiche di un modello in modo che siano comprensibili per le persone.

Scopri di più su come conquistare la fiducia degli utenti nei sistemi di IA nella sezione Interpretabilità + Fiducia del manuale Persone e IA e nella sezione Interpretabilità delle Pratiche di IA responsabile di Google. Puoi anche consultare le risorse di Google per l'esplicabilità per esempi reali e best practice.