Sécurité

La sécurité de l'IA comprend un ensemble de techniques de conception et d'exploitation à suivre pour éviter et contenir les actions pouvant causer des dommages, intentionnellement ou non. Par exemple, les systèmes d'IA se comportent-ils comme prévu, même en cas de violation de la sécurité ou d'attaque ciblée ? Le système d'IA est-il suffisamment robuste pour fonctionner de manière sécurisée, même en cas de perturbation ? Comment planifiez-vous à l'avance pour prévenir ou éviter les risques ? Le système d'IA est-il fiable et stable sous pression ?

L'une de ces techniques de sécurité est les tests antagonistes, qui consistent à essayer de "casser" votre propre application pour savoir comment elle se comporte quand des entrées malveillantes ou accidentellement nuisibles lui sont fournies. Le kit d'outils pour une IA générative responsable explique plus en détail les évaluations de sécurité, y compris les tests antagonistes. Pour en savoir plus sur le travail de Google dans ce domaine et les enseignements tirés, consultez l'article de blog sur les mots clés Google's AI Red Team: the ethical hackers making AI safer (La Red Team de Google dédiée à l'IA : les pirates informatiques éthiques qui rendent l'IA plus sûre) ou SAIF: Google's Guide to Secure AI (SAIF : guide de Google sur l'IA sécurisée).