El AA tiene el potencial de transformar la sociedad de muchas maneras significativas, ya sea de forma positiva o negativa. Es fundamental considerar las implicaciones éticas de tus modelos y los sistemas de los que forman parte.
Tus proyectos de AA deben beneficiar a la sociedad. No deben causar daños ni ser susceptibles de un uso inadecuado. No deben perpetuar, reforzar ni exacerbar los sesgos o prejuicios. No deben recopilar ni usar datos personales de forma irresponsable.Principios de la IA de Google
Google aboga por el desarrollo de aplicaciones de AA y de IA que cumplan con sus principios de IA. Los principios de Google se centran en los siguientes conceptos:
- Equidad
- Privacidad
- Transparencia
- Seguridad
Equidad
Evitar crear o reforzar sesgos injustos Los modelos muestran sesgos cuando sus datos de entrenamiento tienen algunas de las siguientes características:
No refleja la población real de sus usuarios.
Conserva decisiones o resultados sesgados, por ejemplo, decisiones de justicia penal, como los tiempos de encarcelamiento.
Usa funciones con más capacidad predictiva para ciertos grupos de usuarios.
Los ejemplos anteriores son solo algunas de las formas en que los modelos se sesgan. Comprender tus datos en detalle es fundamental para descubrir y resolver cualquier sesgo potencial que contengan. El primer paso para desarrollar modelos justos es verificar que los datos de entrenamiento reflejen con precisión la distribución de tus usuarios. Las siguientes son otras prácticas que ayudan a crear modelos justos:
Identifica los grupos subrepresentados en los conjuntos de datos de evaluación o los grupos que podrían tener una peor calidad del modelo en comparación con otros grupos. Es posible que debas muestrear en exceso un subgrupo de tus usuarios para aumentar su presencia en los datos de entrenamiento.
Usa conjuntos de datos dorados (también conocidos como conjuntos de datos de comparativas) para validar el modelo en relación con los problemas de equidad y detectar sesgos implícitos.
Evita incluir atributos sensibles en los conjuntos de datos, como el género o el origen étnico.
Evita incluir atributos con poco poder empírico o explicativo, pero, sobre todo, en contextos sensibles en los que el modelo entrenado se usa para realizar tareas de alto impacto en áreas como la atención médica, las finanzas, la educación, el empleo, etcétera. Por ejemplo, en un modelo para aprobar préstamos hipotecarios, no incluyas nombres en los datos de entrenamiento. No solo el nombre de un solicitante es irrelevante para la tarea de predicción, sino que dejar una característica tan irrelevante en el conjunto de datos también tiene el potencial de crear sesgos implícitos o daños de asignación. Por ejemplo, el modelo podría correlacionar los nombres masculinos con una probabilidad más alta de reembolso, o viceversa.
Mide el posible impacto adverso que las predicciones de un modelo podrían tener en grupos particulares y considera técnicas de corrección de sesgo intencional si encuentras un impacto adverso en un contexto sensible.
Privacidad
Incorporar principios de diseño de privacidad desde el principio
A continuación, se incluyen las leyes y políticas relacionadas con la privacidad que debes conocer y cumplir:
Ley de Mercados Digitales (LMD) de la Unión Europea para obtener el consentimiento para compartir o usar datos personales
Las leyes del Reglamento General de Protección de Datos de la Unión Europea
Además, asegúrate de quitar toda la información de identificación personal (PII) de los conjuntos de datos y confirmar que tu modelo y los repositorios de datos estén configurados con los permisos correctos, por ejemplo, que no sean de lectura para todos.
Transparencia
Ser responsable ante la sociedad Por ejemplo, haz que sea fácil para los demás comprender qué hace tu modelo, cómo lo hace y por qué lo hace. Tarjetas de modelos proporcionan una plantilla para documentar tu modelo y crear artefactos de transparencia.
Seguridad
Diseña modelos para que funcionen de forma segura en condiciones adversas. Por ejemplo, prueba tu modelo con posibles entradas hostiles para confirmar que sea seguro. Además, verifica si hay posibles condiciones de falla. Por lo general, los equipos usan conjuntos de datos diseñados especialmente para probar sus modelos con entradas o condiciones que provocaron que el modelo fallara en el pasado.
Comprueba tu comprensión
Siempre considera los contextos sociales más amplios en los que operan tus modelos. Asegúrate de que el manejo de datos sensibles no incumpla los problemas de privacidad, perpetúe los sesgos ni infrinja la propiedad intelectual de otra persona.