Framework de IA segura (SAIF): Un framework conceptual para sistemas de IA seguros

La IA avanza rápidamente y es importante que las estrategias de administración de riesgos efectivas evolucionen. El framework de IA segura (SAIF) es un marco de trabajo conceptual para sistemas de IA seguros diseñados para ayudar a lograr esta evolución.

A medida que las funciones de IA se integren cada vez más en los productos de todo el mundo, el cumplimiento de un framework audaz y responsable será aún más importante.

SAIF está diseñado para ayudar a mitigar riesgos específicos de sistemas de IA, como robar el modelo, envenenar los datos de entrenamiento, inyectar entradas maliciosas a través de inserción de mensajes y extraer información confidencial de los datos de entrenamiento.

Marco de trabajo SAIF

SAIF tiene seis elementos principales:

1. Expandir bases de seguridad sólidas al ecosistema de IA

Esto incluye aprovechar la protección de la infraestructura predeterminada y segura, y la experiencia compilada en las últimas dos décadas para proteger los sistemas, las aplicaciones y los usuarios de la IA. Al mismo tiempo, desarrolla experiencia organizativa para seguir el ritmo de los avances en IA y comenzar a escalar y adaptar las protecciones de la infraestructura en el contexto de la IA y los modelos de amenazas en constante evolución. Por ejemplo, las técnicas de inyección como la inserción de SQL existen desde hace un tiempo y las organizaciones pueden adaptar las mitigaciones, como la desinfección de entradas y el límite, para ayudar a defenderse mejor de los ataques estilo inyección.

2. Extienda la detección y la respuesta para incorporar la IA en el universo de amenazas de una organización

La puntualidad es fundamental para detectar y responder a los incidentes cibernéticos relacionados con la IA, y extender la inteligencia de amenazas y otras capacidades a una organización mejora ambas. Para las organizaciones, esto incluye la supervisión de las entradas y salidas de los sistemas generativos de IA a fin de detectar anomalías y el uso de inteligencia de amenazas para anticipar ataques. Por lo general, este esfuerzo requiere la colaboración con confianza y seguridad, inteligencia de amenazas y equipos contra el abuso.

3. Automatiza las defensas para mantenerte al ritmo de las amenazas existentes y nuevas

Las innovaciones de IA más recientes pueden mejorar el escalamiento y la velocidad de los esfuerzos de respuesta a los incidentes de seguridad. Es probable que los adversarios utilicen la IA para escalar su impacto, por lo que es importante usar la IA y sus capacidades actuales y emergentes a fin de mantener su agilidad y rentabilidad para protegerse de ellas.

4. Unifica los controles a nivel de la plataforma para garantizar una seguridad coherente en toda la organización.

La coherencia entre los frameworks de control puede admitir la mitigación de riesgos de la IA y escalar protecciones en diferentes plataformas y herramientas a fin de garantizar que las mejores protecciones estén disponibles para todas las aplicaciones de la IA de manera escalable y rentable. En Google, esto incluye la protección de protecciones seguras de forma predeterminada a plataformas de IA, como Vertex AI y Security AI Workbench, y la creación de controles y protecciones en el ciclo de vida de desarrollo de software. Las capacidades que abordan casos de uso generales, como la API de Perspective, pueden ayudar a toda la organización a beneficiarse de las protecciones de vanguardia.

5. Adapta los controles para ajustar las mitigaciones y crear ciclos de reacción más rápidos para la implementación de IA

Realizar pruebas constantes de implementaciones mediante el aprendizaje continuo puede garantizar que las capacidades de detección y protección aborden el entorno cambiante de amenazas. Esto incluye técnicas como el aprendizaje por refuerzo basado en incidentes y comentarios de los usuarios; involucra pasos como la actualización de conjuntos de datos de entrenamiento, el ajuste de los modelos para responder de forma estratégica a los ataques y permitir que el software que se utiliza para crear modelos incorpore una mayor seguridad en contexto (p.ej., detectar comportamientos anómalos). Las organizaciones también pueden realizar ejercicios de equipo rojo con regularidad a fin de mejorar la garantía de seguridad para las funciones y los productos con tecnología de IA.

6. Contextualizar los riesgos del sistema de IA en los procesos empresariales circundantes

Por último, realizar evaluaciones de riesgos de extremo a extremo relacionadas con la forma en que las organizaciones implementarán la IA puede ayudar a fundamentar las decisiones. Esto incluye una evaluación del riesgo empresarial de extremo a extremo, como el linaje de datos, la validación y la supervisión del comportamiento operativo de ciertos tipos de aplicaciones. Además, las organizaciones deben crear verificaciones automatizadas para validar el rendimiento de la IA.

Recursos adicionales

Una guía para profesionales sobre la implementación de SAIF En esta guía, se proporcionan consideraciones prácticas de alto nivel sobre cómo las organizaciones pueden compilar el enfoque SAIF en sus adopciones de IA existentes o nuevas.

Why Red Teams Play a Central Role in Helping organizations Secure AI Systems es un informe detallado que explora una función fundamental que se implementa para respaldar el framework de SAIF: Red Teaming. Esto incluye tres áreas importantes:

  1. Qué es la vinculación en rojo y por qué es importante
  2. Qué tipos de ataques simulan los equipos rojos
  3. Lecciones que aprendimos y que podemos compartir con los demás