Framework AI sicuro (SAIF): un framework concettuale per sistemi AI sicuri

L'AI sta facendo progressi rapidamente ed è importante che le strategie di gestione del rischio efficaci si evolvono insieme. Secure AI Framework (SAIF) è un framework concettuale per sistemi di AI sicuri progettati per aiutare a raggiungere questa evoluzione.

Man mano che le funzionalità di AI diventano sempre più integrate nei prodotti in tutto il mondo, aderire a un framework audace e responsabile sarà ancora più critico.

Il SAIF è progettato per aiutare a mitigare i rischi specifici dei sistemi di AI, come il furto del modello, l'avvelenamento dei dati di addestramento, l'inserimento di input dannosi tramite iniezione di richiesta ed estrazione di informazioni riservate nei dati di addestramento.

Il framework SAIF

SAIF ha sei elementi principali:

1. Espandere solide basi di sicurezza all'ecosistema dell'AI

Ciò include l'utilizzo di protezioni dell'infrastruttura per impostazione predefinita sicure e la competenza realizzata negli ultimi due decenni per proteggere i sistemi, le applicazioni e gli utenti di AI. Allo stesso tempo, sviluppa competenze organizzative per stare al passo con i progressi nell'AI e iniziare a scalare e adattare le protezioni dell'infrastruttura nel contesto dell'AI e in evoluzione dei modelli di minaccia. Ad esempio, esistono tecniche di iniezione come l'iniezione SQL da tempo e le organizzazioni possono adattare le mitigazioni, come la sanificazione degli input e la limitazione, per aiutare a difendersi meglio dagli attacchi di tipo iniezione di prompt.

2. Estendi il rilevamento e la risposta per portare l'AI nell'universo delle minacce di un'organizzazione

La tempestività è fondamentale per rilevare e rispondere agli incidenti informatici correlati all'AI ed estendere l'intelligence sulle minacce e altre funzionalità a un'organizzazione migliora entrambi. Per le organizzazioni, questo include il monitoraggio degli input e degli output di sistemi AI generativi per rilevare le anomalie e l'utilizzo dell'intelligence delle minacce per anticipare gli attacchi. Questo sforzo richiede in genere la collaborazione con fiducia e sicurezza, intelligenza delle minacce e team per contrastare i comportamenti illeciti.

3. Automatizza le difese per stare al passo con le minacce nuove ed esistenti

Le ultime innovazioni di AI possono migliorare la scalabilità e la velocità degli sforzi di risposta agli incidenti di sicurezza. Gli utenti malintenzionati usino probabilmente l'AI per scalare il loro impatto, quindi è importante usare l'AI e le sue funzionalità attuali ed emergenti per rimanere agile e conveniente nel proteggerla.

4. Armonizza i controlli a livello di piattaforma per garantire una sicurezza coerente in tutta l'organizzazione

La coerenza tra i framework di controllo può supportare la mitigazione del rischio dell'AI e scalare le protezioni su diverse piattaforme e strumenti per garantire che le migliori protezioni siano disponibili per tutte le applicazioni di AI in modo scalabile ed economico. In Google, questo include l'estensione delle protezioni sicure per impostazione predefinita alle piattaforme di AI come Vertex AI e Security AI Workbench e la creazione di controlli e protezioni nel ciclo di vita di sviluppo del software. Le funzionalità che soddisfano i casi d'uso generali, come l'API Perspective, possono aiutare l'intera organizzazione a sfruttare i vantaggi delle protezioni all'avanguardia.

5. Adatta i controlli per regolare le mitigazioni e creare cicli di feedback più rapidi per il deployment dell'AI

Test continui delle implementazioni attraverso l'apprendimento continuo possono garantire che le funzionalità di rilevamento e protezione rispondano all'evoluzione delle minacce. Ciò include tecniche come il rafforzamento dell'apprendimento basato su incidenti e feedback degli utenti e comporta passaggi come l'aggiornamento di set di dati di addestramento, la messa a punto di modelli per rispondere strategicamente agli attacchi e consentire al software utilizzato per creare modelli di incorporare ulteriore sicurezza nel contesto (ad esempio il rilevamento di comportamenti anomali). Le organizzazioni possono anche svolgere regolarmente attività di team rosso per migliorare la garanzia di sicurezza per i prodotti e le funzionalità basati sull'AI.

6. Contestualizzare i rischi del sistema AI nelle procedure aziendali circostanti

Infine, condurre valutazioni del rischio end-to-end relative al modo in cui le organizzazioni eseguiranno il deployment dell'AI può aiutare a prendere decisioni. che include una valutazione del rischio aziendale end-to-end, come la derivazione dei dati, la convalida e il monitoraggio del comportamento operativo per determinati tipi di applicazioni. Inoltre, le organizzazioni dovrebbero creare controlli automatici per convalidare le prestazioni dell'AI.

Altre risorse

Una guida per i professionisti all'implementazione di SAIF. Questa guida fornisce considerazioni di alto livello pratiche su come le organizzazioni potrebbero creare l'approccio SAIF nelle loro adozioni esistenti o nuove per l'AI.

Perché i team rossi giocano un ruolo centrale nell'aiutare le organizzazioni a proteggere i sistemi AI è un report approfondito che esplora una capacità fondamentale di cui è stato eseguito il deployment per supportare il framework SAIF: il team Red. Sono incluse tre aree importanti:

  1. Che cos'è il "red teaming" e perché è importante
  2. Tipi di attacchi simulati dalle squadre rosse
  3. Lezioni che abbiamo imparato da condividere con gli altri