Ética y seguridad de la IA y el AA

El AA tiene el potencial de transformar la sociedad de muchas maneras significativas, positiva o negativa. Es fundamental considerar las implicaciones éticas de tus modelos y los sistemas de los que forman parte.

Como cualquier tecnología desarrollada en Google, tus proyectos de AA deberían beneficiar a la sociedad. No deben causar daños ni ser propensos al uso inadecuado. No deben perpetuar, reforzar ni exacerbar los sesgos ni los prejuicios. No deben recopilar ni usar datos personales de forma irresponsable.

Principios de la IA de Google

Los proyectos de AA deben cumplir con los Principios de la IA de Google. El sitio de prácticas inteligentes de IA responsable (RAI) ayuda a los Googlers a desarrollar soluciones de AA éticamente sólidas que se alinean con los principios de la IA de Google.

Las prácticas inteligentes de RAI son lineamientos prácticos que deben implementar los equipos para desarrollar IA y AA de forma responsable. Las soluciones de AA deben cumplir con los lineamientos de Google en los siguientes dominios:

  • Equidad
  • Privacidad
  • Transparencia
  • Seguridad

Si tienes preguntas o inquietudes relacionadas con el AA y la ética, consulta con el PCounsel y el Grupo de trabajo de privacidad de tu producto.

Equidad

Evita crear o reforzar sesgos injustos. Los modelos presentan sesgo cuando sus datos de entrenamiento tienen algunas de las siguientes características:

  • No refleja la población real de sus usuarios.

  • Conserva decisiones o resultados sesgados, como decisiones de justicia penal, como tiempos de encarcelamiento.

  • Usa funciones con más poder predictivo para ciertos grupos de usuarios.

Los ejemplos anteriores son solo algunas de las formas en que los modelos se personalizan. Comprender los datos en detalle es fundamental para descubrir y resolver cualquier sesgo potencial que contengan. El primer paso para desarrollar modelos justos es verificar que los datos de entrenamiento reflejen de manera precisa la distribución de los usuarios. Las siguientes son prácticas adicionales para ayudar a crear modelos justos:

  • Identifica grupos subrepresentados en conjuntos de datos o grupos de evaluación que podrían experimentar una peor calidad del modelo en comparación con otros grupos. Es posible que debas realizar un muestreo en exceso de un subgrupo de tus usuarios para aumentar su presencia en los datos de entrenamiento.

  • Usa conjuntos de datos de oro (también conocidos como conjuntos de datos de comparativas) para validar el modelo frente a problemas de equidad y detectar sesgos implícitos.

  • Evita incluir características sensibles en los conjuntos de datos, como el género o la etnia.

  • Evita incluir atributos con poco poder empírico o explicativo, pero especialmente en contextos sensibles en los que el modelo entrenado se usa para realizar tareas de alto impacto en áreas como salud, finanzas, educación, empleo, etcétera. Por ejemplo, en un modelo para aprobar préstamos hipotecarios, no incluyas nombres en los datos de entrenamiento. El nombre de un solicitante no solo es irrelevante para la tarea de predicción, sino que dejar una característica tan irrelevante en el conjunto de datos también tiene el potencial de crear un sesgo implícito o daños en la asignación. Por ejemplo, el modelo puede correlacionar los nombres masculinos con una mayor probabilidad de pago, o viceversa.

  • Mide el posible impacto adverso que las predicciones de un modelo puedan tener en grupos particulares y considera técnicas de corrección del sesgo intencional si encuentras un impacto adverso en un contexto sensible.

Para obtener más información sobre la equidad de la IA y el AA, consulta la página de Equidad de prácticas inteligentes y el módulo de Equidad del Curso intensivo de aprendizaje automático.

Privacidad

Incorporar principios de diseño de privacidad desde el principio. Al igual que con cualquier función o producto nuevo de Google, el grupo de trabajo de privacidad del área de tu producto debe revisar tu modelo. Por lo tanto, crea un documento de diseño de privacidad antes para obtener comentarios iniciales.

A continuación, se muestran las leyes y políticas relacionadas con la privacidad que debes tener en cuenta y cumplir:

A continuación, se incluyen prácticas de privacidad específicas de Google que se deben cumplir:

  • reglamentaciones de limpieza de datos.

  • ID binario y de configuración (BCID) de nivel 4 para evitar que el código malicioso o comprometido acceda al sistema.

  • Quita toda la PII de los conjuntos de datos y confirma que tu modelo y tus repositorios de datos estén configurados con los permisos correctos, por ejemplo, que no sean legibles para todo el mundo.

En el siguiente video, se proporciona una descripción general de alto nivel de los problemas relacionados con la privacidad:

Para obtener más información sobre la privacidad de la IA y el AA, consulta la página de privacidad de Prácticas inteligentes.

Transparencia

Ser responsable frente a las personas. Por ejemplo, facilita que otros entiendan lo que hace tu modelo, cómo lo hace y por qué lo hace. Las tarjetas de modelo proporcionan una plantilla para documentar tu modelo y crear artefactos de transparencia.

Para obtener más información sobre la transparencia de IA y AA, consulta la página de transparencia de prácticas inteligentes.

Seguridad

Diseñar modelos para operar de forma segura en condiciones adversas Por ejemplo, prueba tu modelo con entradas potencialmente hostiles para confirmar que el modelo es seguro. Además, verifica posibles condiciones de falla. Por lo general, los equipos usan conjuntos de datos diseñados especialmente para probar sus modelos con entradas o condiciones que hicieron que el modelo fallara en el pasado.

Para obtener más información sobre la seguridad, consulta la página de IA responsable.

Siempre considera los contextos sociales más amplios en los que operan tus modelos. Asegúrate de que el manejo de tus datos sensibles no infrinja los problemas de privacidad, perpetúe sesgos ni incumpla la propiedad intelectual de otra persona.

Para obtener información sobre la ética de la IA generativa, consulta Prácticas inteligentes de RAI para la IA generativa.