Introducción a la IA responsable

¿Cómo creamos sistemas de IA con responsabilidad y a gran escala? Obtén información sobre la IA responsable, los conceptos y los términos relevantes, y cómo implementar estas prácticas en los productos.

Introducción

La inteligencia artificial (IA) potencia muchas apps y servicios que las personas usan en la vida diaria. Con miles de millones de usuarios de IA en diversos campos, desde empresas hasta atención médica y educación, es fundamental que las empresas líderes de IA trabajen para garantizar que los beneficios de estas tecnologías repriman los daños a fin de crear las experiencias más útiles, seguras y confiables para todos.

La IA responsable considera el impacto social del desarrollo y la escala de estas tecnologías, incluidos los posibles daños y beneficios. Los Principios de IA proporcionan un framework que incluye objetivos para las aplicaciones de IA y para los que no trabajaremos en el desarrollo de sistemas de IA.

Dimensiones de la IA responsable

A medida que el desarrollo de IA se acelera y se vuelve más generalizado, es fundamental incorporar prácticas de IA responsable en cada etapa del flujo de trabajo desde la ideación hasta el lanzamiento. Las siguientes dimensiones son componentes clave de Responsible AI y son importantes de tener en cuenta durante todo el ciclo de vida del producto.

Equidad

La equidad aborda los posibles resultados dispares que pueden experimentar los usuarios finales en relación con características sensibles, como la raza, los ingresos, la orientación sexual o el género, a través de la toma de decisiones algorítmicas. Por ejemplo, ¿un algoritmo de contratación puede tener sesgos a favor o en contra de los solicitantes con nombres que están asociados con un género o una etnia en particular?

Mira este video y obtén más información sobre cómo los sistemas de aprendizaje automático pueden ser susceptibles al sesgo humano:

Obtén información sobre cómo productos como la Búsqueda y Fotos mejoraron la diversidad de la representación de tono.

Para obtener más términos relacionados con la equidad en el AA, consulta el Glosario de aprendizaje automático: equidad | Google para desarrolladores. Para obtener más información, el módulo Equidad del Curso intensivo de aprendizaje automático proporciona una introducción a la equidad en el AA.

People + AI Research (PAIR) ofrece opciones interactivas de IA explorables, como la medición de la equidad y el sesgo oculto, para analizar estos conceptos.

Responsabilidad

Responsabilidad significa ser responsable de los efectos de un sistema de IA. Esto implica la transparencia o el uso compartido de información sobre el comportamiento del sistema y el proceso organizativo, lo que puede incluir documentar y compartir cómo se crearon, entrenaron y evaluaron los modelos y conjuntos de datos. Las tarjetas del modelo y las tarjetas de datos son ejemplos de artefactos de transparencia que pueden ayudar a organizar los datos esenciales de los modelos y conjuntos de datos del AA de forma estructurada.

Otra dimensión de la rendición de cuentas es la interpretabilidad, que implica la comprensión de las decisiones del modelo de AA, en la que los seres humanos pueden identificar los atributos que generan una predicción. Además, la explicabilidad es la capacidad de que las decisiones automatizadas de un modelo se expliquen de una manera que los humanos puedan comprender.

Obtén más información para aumentar la confianza de los usuarios en los sistemas de IA en el capítulo Explainability + Trust de People + AI Guidebook y la sección sobre interpretabilidad de las prácticas de IA responsable de Google.

Seguridad

La seguridad de la IA incluye un conjunto de técnicas operativas y de diseño para evitar y contener acciones que pueden causar daño de manera intencional o no. Por ejemplo, ¿los sistemas se comportan según lo previsto, incluso frente a un ataque de seguridad o a un ataque dirigido? ¿El sistema de IA es lo suficientemente resistente para funcionar de forma segura, incluso cuando se lo afecta? ¿Cómo planificas con anticipación para evitar o evitar riesgos? ¿Tu sistema es confiable y estable bajo presión?

En la sección de Seguridad de las Prácticas de IA responsable, se describen prácticas recomendadas para proteger los sistemas de IA contra ataques, incluidas las pruebas adversarias. Obtén más información sobre nuestro trabajo en esta área y las lecciones aprendidas en la entrada de blog de The Keyword, el equipo de IA de Google: los hackers éticos que hacen que la IA sea más segura.

Privacidad

Las prácticas de privacidad de la IA responsable (consulta la sección Privacidad de las Prácticas de IA responsables de Google) que incluyen la consideración de posibles implicaciones de privacidad cuando se usan datos sensibles. Esto incluye respetar los requisitos legales y normativos, y también considerar las normas sociales y las expectativas individuales típicas. Por ejemplo, ¿qué protecciones se deben implementar para garantizar la privacidad de las personas teniendo en cuenta que los modelos de AA pueden recordar o revelar aspectos de los datos a los que se expusieron? ¿Qué pasos son necesarios para garantizar que los usuarios tengan la transparencia y el control adecuados de sus datos?

Obtenga más información sobre la privacidad del AA mediante las explicaciones interactivas de PAIR Explorables:

IA responsable en modelos generativos/LLM

La llegada de grandes modelos generativos plantea nuevos desafíos para implementar prácticas de IA responsable debido a sus capacidades de resultado potencialmente abiertas y muchos usos potenciales en sentido descendente. Además de los principios de IA, Google tiene una Política de uso prohibido de IA generativa y una Guía de generación de IA para desarrolladores.

Obtén más información sobre cómo los equipos de Google usan la IA generativa para crear experiencias nuevas para los usuarios de la IA generativa de Google. En este sitio, también ofrecemos orientación sobre seguridad y equidad, ingeniería de mensajes y pruebas adversarias para modelos generativos. Para obtener una explicación interactiva sobre los modelos de lenguaje, consulta el artículo explorable de PAIR: What Have Language Models Learned?

Additional Resources

Por qué nos enfocamos en la IA: IA de Google

Proceso de revisión de la IA de Google

Proceso de revisión de los principios de la IA | Google AI:

Responsible AI Toolkit | TensorFlow