Sécurité

La sécurité de l'IA comprend un ensemble de techniques de conception et d'exploitation à suivre pour éviter et contenir les actions pouvant causer des dommages, intentionnellement ou non. Par exemple, les systèmes d'IA se comportent-ils comme prévu, même en cas de violation de la sécurité ou d'attaque ciblée ? Le système d'IA est-il suffisamment robuste pour fonctionner de manière sécurisée, même en cas de perturbation ? Comment planifiez-vous à l'avance pour prévenir ou éviter les risques ? Le système d'IA est-il fiable et stable sous pression ?

L'une de ces techniques de sécurité est les tests antagonistes, qui consistent à essayer de "casser" votre propre application pour savoir comment elle se comporte quand des entrées malveillantes ou accidentellement nuisibles lui sont fournies. La section "Sécurité" des pratiques d'IA responsable de Google décrit les pratiques recommandées pour protéger les systèmes d'IA contre les attaques, y compris les tests antagonistes. Pour en savoir plus sur le travail de Google dans ce domaine et les enseignements tirés, consultez l'article de blog "La Red Team de Google dédiée à l'IA: les pirates informatiques éthiques qui rendent l'IA plus sûre" ou SAIF: le guide de Google sur l'IA sécurisée.