Glosario de aprendizaje automático: Equidad

En esta página, se incluyen los términos del glosario de Equidad. Para ver todos los términos del glosario, haz clic aquí.

A

atributo

#fairness

Sinónimo de feature.

En la equidad en el aprendizaje automático, los atributos suelen hacer referencia a características relativas a los individuos.

sesgo de automatización

#fairness

Cuando una persona que toma decisiones favorece las recomendaciones hechas por un sistema automatizado de toma de decisiones sobre la información obtenida sin automatización, incluso cuando el sistema automatizado de toma de decisiones comete errores.

B

sesgo (ética/equidad)

#fairness
#fundamentals

1. Estereotipo, prejuicio o preferencia de objetos, personas o grupos por sobre otros. Estos sesgos pueden afectar la recopilación y la interpretación de los datos, el diseño de un sistema y la forma en que los usuarios interactúan con él. Entre las formas de este tipo de sesgo se incluyen las siguientes:

2. Error sistemático debido a un procedimiento de muestreo o de elaboración de informes. Entre las formas de este tipo de sesgo se incluyen las siguientes:

No se debe confundir con el término de sesgo en los modelos de aprendizaje automático o con el sesgo de predicción.

C

sesgo de confirmación

#fairness

Tendencia a buscar, interpretar, favorecer y recordar la información de una manera que confirme las creencias o hipótesis preexistentes. Los desarrolladores de aprendizaje automático pueden recopilar o etiquetar inadvertidamente datos de formas que influyan en un resultado que respalde sus creencias. El sesgo de confirmación es una forma de sesgo implícito.

El sesgo de investigación es una forma de sesgo de confirmación en el que un investigador continúa entrenando modelos hasta que se confirma una hipótesis preexistente.

equidad contrafáctica

#fairness

Una métrica de equidad que verifica si un clasificador produce el mismo resultado para una persona que para otra que es idéntica a la primera, excepto con respecto a uno o más atributos sensibles. La evaluación de un clasificador para la equidad contrafáctica es un método para mostrar las posibles fuentes de sesgo en un modelo.

Consulta "When Worlds Collide: Integrating Different Counterfactual Assumptions in Fairness" para obtener un análisis más detallado de la equidad contrafáctica.

sesgo de cobertura

#fairness

Consulta Sesgo de selección.

D

paridad demográfica

#fairness

Métrica de equidad que se cumple si los resultados de la clasificación de un modelo no dependen de un atributo sensible determinado.

Por ejemplo, si tanto los liliputantes como los Brobdingnagianos se postulan a la Universidad de Glubbdubdrib, la paridad demográfica se logra si el porcentaje de usuarios admitidos es igual al porcentaje de residentes de Brobdingnaga, independientemente de que un grupo esté en promedio más calificado que el otro.

Compara esto con las probabilidades iguales y la igualdad de oportunidades, que permiten que los resultados de clasificación en conjunto dependan de atributos sensibles, pero no permiten que los resultados de clasificación de ciertas etiquetas de verdad fundamental especificadas dependan de atributos sensibles. Consulta “Cómo atacar la discriminación con un aprendizaje automático más inteligente” para obtener una visualización que explora las ventajas y desventajas a la hora de realizar optimizaciones en función de la paridad demográfica.

impacto dispar

#fairness

Tomar decisiones sobre personas que tienen un impacto desproporcionado en los distintos subgrupos poblacionales. Por lo general, esto se refiere a situaciones en las que un proceso de toma de decisiones algorítmica perjudica o beneficia a algunos subgrupos más que a otros.

Por ejemplo, supongamos que un algoritmo que determina la elegibilidad de un liliputiano para un préstamo hipotecario en miniatura tiene más probabilidades de clasificarlo como “no apto” si su dirección de correo postal contiene un código postal determinado. Si es más probable que los liliputianos de Big-Endian tengan direcciones de correo postal con este código postal que los de Little-Endian, este algoritmo puede generar un impacto dispar.

Compara esto con el tratamiento dispar, que se enfoca en las disparidades que se producen cuando las características de los subgrupos son entradas explícitas a un proceso de toma de decisiones algorítmica.

tratamiento distinto

#fairness

Factorizar los atributos sensibles de los sujetos en un proceso de toma de decisiones algorítmica, de modo que los diferentes subgrupos de personas se traten de manera diferente.

Por ejemplo, considera un algoritmo que determine la elegibilidad de los liliputantes para un préstamo hipotecario en miniatura en función de los datos que proporcionen en su solicitud de préstamo. Si el algoritmo usa la afiliación de un liliputiano como Big-Endian o Little-Endian como entrada, está ejecutando un tratamiento dispar en esa dimensión.

Compara esto con el impacto dispar, que se enfoca en las disparidades en los impactos sociales de las decisiones algorítmicas en subgrupos, independientemente de si esos subgrupos son entradas del modelo.

E

igualdad de oportunidades

#fairness

Una métrica de equidad para evaluar si un modelo predice el resultado deseado de la misma manera para todos los valores de un atributo sensible. En otras palabras, si el resultado deseado para un modelo es la clase positiva, el objetivo sería que la tasa de verdaderos positivos sea la misma en todos los grupos.

La igualdad de oportunidades está relacionada con las probabilidades iguales, que requieren que tanto las tasas de verdaderos positivos como las tasas de falsos positivos sean iguales para todos los grupos.

Supongamos que la Universidad de Glubbdubdrib admite a estudiantes de Lilliputians y Brobdingnagians en un riguroso programa de matemáticas. Las escuelas secundarias de Liliputians ofrecen un plan de estudios sólido de clases de matemáticas, y la gran mayoría de los estudiantes están calificados para el programa universitario. Las escuelas secundarias de Brobdingnagians no ofrecen clases de matemáticas en absoluto y, por lo tanto, muchos menos estudiantes están calificados. La igualdad de oportunidades se satisface para la etiqueta preferida de "admitido" con respecto a la nacionalidad (liliputiana o brobdingnagiana) si los estudiantes calificados tienen las mismas probabilidades de ser admitidos, independientemente de si son liliputianos o brobdingnaguianos.

Por ejemplo, supongamos que 100 liliputantes y 100 brobdingnagianos se postulan a la Universidad de Glubbdubdrib, y las decisiones de admisión se toman de la siguiente manera:

Tabla 1: Postulantes liliputes (el 90% están calificados)

  Calificado No cumple con los requisitos
Admitido 45 3
Rechazado 45 7
Total 90 10
Porcentaje de estudiantes calificados admitidos: 45/90 = 50%
Porcentaje de estudiantes no calificados que se rechazaron: 10/7 = 70%
Porcentaje total de estudiantes de Liliputi admitidos: (45 + 3)/100 = 48%

 

Tabla 2: Postulantes de Brobdingnag (10% están calificados):

  Calificado No cumple con los requisitos
Admitido 5 9
Rechazado 5 81
Total 10 90
Porcentaje de estudiantes calificados admitidos: 5/10 = 50%
Porcentaje de estudiantes no calificados que se rechazaron: 81/90 = 90%
Porcentaje total de estudiantes de Brobdingnag admitidos: (5 + 9)/100 = 14%

Los ejemplos anteriores satisfacen la igualdad de oportunidades de aceptación de estudiantes calificados porque los liliputantes y los Brobdingnag calificados tienen un 50% de posibilidades de ser admitidos.

Si bien se cumple la igualdad de oportunidades, no se cumplen las siguientes dos métricas de equidad:

  • Paridad demográfica: Los liliputantes y los brobdingnagues ingresan a la universidad a diferentes tasas; el 48% de los estudiantes de Liliputi pueden ingresar, pero solo el 14% de los estudiantes de Brobdingnag.
  • probabilidades igualadas: si bien los estudiantes liliputianos y brobdingnaguis calificados tienen las mismas posibilidades de ser admitidos, no se satisface la restricción adicional de que los liliputianos y los brobdingnagues no calificados tienen las mismas posibilidades de ser rechazados. Los liliputantes no calificados tienen una tasa de rechazo del 70%, mientras que los de Brobdingnagian no calificados tienen una tasa de rechazo del 90%.

Consulta "Igualdad de oportunidades en el aprendizaje supervisado" para obtener un análisis más detallado sobre la igualdad de oportunidades. Consulta también “Cómo atacar la discriminación con un aprendizaje automático más inteligente” para obtener una visualización que explora las ventajas y desventajas a la hora de realizar optimizaciones en función de la igualdad de oportunidades.

probabilidades igualadas

#fairness

Una métrica de equidad para evaluar si un modelo predice los resultados de forma igualitaria para todos los valores de un atributo sensible con respecto a la clase positiva y a la clase negativa, no solo a una clase o a la otra de forma exclusiva. En otras palabras, la tasa de verdaderos positivos y la tasa de falsos negativos deben ser iguales para todos los grupos.

Las probabilidades equitativas están relacionadas con la igualdad de oportunidades, que solo se enfoca en las tasas de error de una sola clase (positiva o negativa).

Por ejemplo, supongamos que la Universidad de Glubbdubdrib admite tanto a estudiantes de Liliputi como a estudiantes de Brobdingnag en un riguroso programa de matemáticas. Las escuelas secundarias de Liliputians ofrecen un plan de estudios sólido de clases de matemáticas, y la gran mayoría de los alumnos están calificados para el programa universitario. Las escuelas secundarias de Brobdingnagians no ofrecen clases de matemáticas en absoluto y, por lo tanto, muchos menos de sus estudiantes están calificados. Las probabilidades equitativas se cumplen siempre que no importa si un postulante es liliputiano o brobdingnaga, si está calificado, tiene las mismas probabilidades de ser admitido en el programa y si no lo es, tienen la misma probabilidad de ser rechazado.

Supongamos que 100 liliputantes y 100 brobdingnagianos se postulan a la Universidad de Glubbdubdrib y las decisiones de admisión se toman de la siguiente manera:

Tabla 3: Postulantes liliputes (el 90% están calificados)

  Calificado No cumple con los requisitos
Admitido 45 2
Rechazado 45 8
Total 90 10
Porcentaje de estudiantes calificados admitidos: 45/90 = 50%
Porcentaje de estudiantes no calificados que se rechazaron: 10/8 = 80%
Porcentaje total de estudiantes de Liliputi admitidos: (45+2)/100 = 47%

 

Tabla 4. Postulantes de Brobdingnag (10% están calificados):

  Calificado No cumple con los requisitos
Admitido 5 18
Rechazado 5 72
Total 10 90
Porcentaje de estudiantes calificados admitidos: 5/10 = 50%
Porcentaje de estudiantes no calificados que se rechazaron: 72/90 = 80%
Porcentaje total de estudiantes de Brobdingnag admitidos: (5+18)/100 = 23%

Las probabilidades igualadas se cumplen porque los estudiantes liliputianos y brobdingnagies calificados tienen un 50% de probabilidades de ser admitidos, mientras que los estudiantes liliputianos y brobdingnagianos no calificados tienen un 80% de probabilidades de ser rechazados.

Las probabilidades igualadas se definen formalmente en "Igualdad de oportunidades en el aprendizaje supervisado" de la siguiente manera: "predictor Ŷ satisface las probabilidades igualadas con respecto al atributo protegido A y el resultado Y si Ŷ y A son independientes, condicionales en Y".

sesgo del investigador

#fairness

Consulta sesgo de confirmación.

F

restricción de equidad

#fairness
La aplicación de una restricción a un algoritmo para garantizar que se cumplan una o más definiciones de equidad. Estos son algunos ejemplos de limitaciones de equidad:

métrica de equidad

#fairness

Una definición matemática de "equidad" que es medible. Entre las métricas de equidad de uso general, se incluyen las siguientes:

Muchas métricas de equidad son mutuamente excluyentes; consulta incompatibilidad de métricas de equidad.

G

sesgo de correspondencia

#fairness

Suponer que lo que es cierto para un individuo también lo es para todos los miembros de ese grupo. Los efectos del sesgo de correspondencia pueden agravarse si se utiliza un muestreo de conveniencia para la recopilación de datos. En una muestra no representativa, se pueden realizar atribuciones que no reflejen la realidad.

Consulta también el sesgo de homogeneidad de los demás y el sesgo endogrupal.

H

sesgo histórico

#fairness

Es un tipo de sesgo que ya existe en el mundo y que llegó a un conjunto de datos. Estos sesgos tienden a reflejar estereotipos culturales, desigualdades demográficas y prejuicios existentes contra ciertos grupos sociales.

Por ejemplo, considera un modelo de clasificación que predice si un solicitante de préstamo dejará de recibir su préstamo, el cual se entrenó con datos históricos de incumplimiento de préstamos de la década de 1980 provenientes de bancos locales de dos comunidades diferentes. Si los solicitantes anteriores de la Comunidad A tuvieran seis veces más probabilidades de incumplir los préstamos que los solicitantes de la Comunidad B, el modelo podría aprender un sesgo histórico que haría que el modelo tuviera menos probabilidades de aprobar los préstamos en la Comunidad A, incluso si las condiciones históricas que provocaron que las tasas de morosidad mayores en esa comunidad ya no fueran relevantes.

I

sesgo implícito

#fairness

Se crea automáticamente una asociación o suposición basada en los modelos mentales y los recuerdos de cada persona. El sesgo implícito puede afectar lo siguiente:

  • Cómo se recopilan y clasifican los datos
  • Cómo se diseñan y desarrollan los sistemas de aprendizaje automático

Por ejemplo, cuando se crea un clasificador para identificar fotos de bodas, un ingeniero puede usar como atributo la presencia de un vestido blanco en una foto. Sin embargo, los vestidos blancos eran habituales solo durante ciertas épocas y en ciertas culturas.

Consulta también el sesgo de confirmación.

incompatibilidad de métricas de equidad

#fairness

La idea de que algunas nociones de equidad son incompatibles entre sí y no se pueden satisfacer de forma simultánea. Como resultado, no existe una métrica universal para cuantificar la equidad que se pueda aplicar a todos los problemas de AA.

Si bien esto puede parecer desalentador, la incompatibilidad de las métricas de equidad no implica que los esfuerzos relacionados con la equidad sean inútiles. En cambio, sugiere que la equidad debe definirse de forma contextual para un problema de AA determinado, con el objetivo de evitar daños específicos de sus casos de uso.

Consulta “Sobre la (im) posibilidad de la equidad” para obtener un análisis más detallado de este tema.

equidad individual

#fairness

Una métrica de equidad que verifica si personas similares se clasifican de manera similar. Por ejemplo, Brobdingnagian Academy podría querer satisfacer la equidad individual y garantizar que dos estudiantes con calificaciones idénticas y calificaciones estandarizadas tengan la misma probabilidad de obtener admisión.

Ten en cuenta que la equidad individual depende completamente de cómo defines la “similitud” (en este caso, calificaciones y calificaciones), y puedes correr el riesgo de presentar nuevos problemas de equidad si tu métrica de similitud omite información importante (como el rigor del plan de estudios de un estudiante).

Consulta “Equidad a través del reconocimiento” para obtener un análisis más detallado de la equidad individual.

sesgo endogrupal

#fairness

Mostrar parcialidad por el propio grupo o las propias características Si los verificadores o evaluadores consisten en amigos, familiares o colegas del desarrollador de aprendizaje automático, el sesgo endogrupal puede invalidar las pruebas del producto o el conjunto de datos.

El sesgo endogrupal es una forma de sesgo de correspondencia. Consulta también el sesgo de homogeneidad de los demás.

N

sesgo de no respuesta

#fairness

Consulta Sesgo de selección.

O

sesgo de homogeneidad de los demás

#fairness

Tendencia a ver a los miembros de los demás grupos como más parecidos que los miembros del grupo cuando se comparan actitudes, valores, rasgos de personalidad y otras características. Endogrupal se refiere a las personas con las que interactúas regularmente; los demás se refiere a las personas con las que no interactúas regularmente. Si creas un conjunto de datos pidiéndoles a las personas que proporcionen atributos sobre los demás, esos atributos pueden tener menos matices y más estereotipo que los atributos que los participantes enumeran para las personas de su grupo.

Por ejemplo, los liliputantes podrían describir las casas de otros habitantes de esta ciudad con gran detalle y mencionar pequeñas diferencias en los estilos arquitectónicos, las ventanas, las puertas y los tamaños. Sin embargo, los mismos liliputantes podrían simplemente declarar que los habitantes de Berlín viven todos en casas idénticas.

El sesgo de homogeneidad de los demás es un tipo de sesgo de atribución de grupo.

Consulta también el sesgo endogrupal.

P

sesgo de participación

#fairness

Sinónimo de sesgo de no respuesta. Consulta Sesgo de selección.

procesamiento posterior

#fairness
#fundamentals

Ajustar el resultado de un modelo después de su ejecución El posprocesamiento se puede usar para aplicar restricciones de equidad sin modificar los modelos.

Por ejemplo, podrías aplicar el procesamiento posterior a un clasificador binario si estableces un umbral de clasificación, de modo que se mantenga la igualdad de oportunidades para algún atributo cuando se verifique que la tasa de verdaderos positivos sea la misma para todos los valores de ese atributo.

paridad predictiva

#fairness

Una métrica de equidad que verifica si, para un clasificador determinado, las tasas de precisión son equivalentes para los subgrupos que se consideran.

Por ejemplo, un modelo que predice la aceptación de la universidad satisfaría la paridad predictiva de nacionalidad si su tasa de precisión es la misma para los liliputantes y los Brobdingnag.

En ocasiones, la paridad predictiva también se denomina paridad de tasa predictiva.

Consulta la “Explicación de las definiciones de equidad” (sección 3.2.1) para obtener un análisis más detallado de la paridad predictiva.

paridad de tasa predictiva

#fairness

Otro nombre para la paridad predictiva.

procesamiento previo

#fairness
Procesamiento de datos antes de que se usen para entrenar un modelo. El procesamiento previo podría ser tan simple como quitar palabras de un corpus de texto en inglés que no aparecen en el diccionario de ese idioma, o bien podría ser tan complejo como volver a expresar los datos de una manera que elimine la mayor cantidad posible de atributos correlacionados con atributos sensibles. El procesamiento previo puede ayudar a satisfacer las restricciones de equidad.

proxy (atributos sensibles)

#fairness
Atributo que se usa como reemplazo de un atributo sensible. Por ejemplo, el código postal de una persona se puede usar como un proxy para sus ingresos, raza o etnia.

R

sesgo de reporte

#fairness

El hecho de que la frecuencia con la que las personas escriben sobre acciones, resultados o propiedades no es un reflejo de las frecuencias del mundo real ni del grado en que una propiedad es característica de una clase de individuos. El sesgo de reporte puede influir en la composición de los datos de los que aprenden los sistemas de aprendizaje automático.

Por ejemplo, en los libros, la palabra reír es más frecuente que la que se respirar. Un modelo de aprendizaje automático que estima la frecuencia relativa de reír y respirar de un corpus de libros probablemente determinaría que reír es más común que respirar.

S

sesgo del muestreo

#fairness

Consulta Sesgo de selección.

sesgo de selección

#fairness

Errores en las conclusiones extraídas de la muestra de datos debido a un proceso de selección que genera diferencias sistemáticas entre las muestras observadas en los datos y las no observadas. Existen las siguientes formas de sesgo de selección:

  • sesgo de cobertura: La población representada en el conjunto de datos no coincide con la población sobre la que el modelo de aprendizaje automático realiza predicciones.
  • sesgo muestral: Los datos no se recopilan de forma aleatoria del grupo objetivo.
  • sesgo de no respuesta (también llamado sesgo de participación): Los usuarios de ciertos grupos rechazan realizar encuestas con frecuencias diferentes que los usuarios de otros grupos.

Por ejemplo, supongamos que creas un modelo de aprendizaje automático que predice el disfrute de una película por parte de las personas. Para recopilar datos de entrenamiento, repartes una encuesta a todos en la primera fila de un cine que presenta la película. A primera vista, esto puede parecer una manera razonable de recopilar un conjunto de datos; sin embargo, esta forma de recopilación de datos puede introducir las siguientes formas de sesgo de selección:

  • sesgo de cobertura: Si se toma una muestra de una población que eligió ver la película, es posible que las predicciones del modelo no se generalicen para las personas que aún no expresaron ese nivel de interés en la película.
  • sesgo del muestreo: En lugar de muestrear de manera aleatoria la población prevista (todas las personas que aparecen en la película), solo muestreaste a las personas de la primera fila. Es posible que las personas sentadas en la primera fila estuvieran más interesadas en la película que aquellas en otras filas.
  • sesgo de no respuesta: En general, las personas con opiniones sólidas tienden a responder a encuestas opcionales con más frecuencia que las personas con opiniones leves. Dado que la encuesta de la película es opcional, es más probable que las respuestas formen una distribución bimodal en lugar de una distribución normal (en forma de campana).

atributo sensible

#fairness
Un atributo humano que puede ser objeto de consideración especial por motivos legales, éticos, sociales o personales.

U

asconocimiento (a un atributo sensible)

#fairness

Una situación en la que están presentes atributos sensibles, pero no se incluyen en los datos de entrenamiento. Debido a que los atributos sensibles a menudo se correlacionan con otros atributos de los datos propios, un modelo entrenado sin tener en cuenta un atributo sensible podría tener un impacto dispar con respecto a ese atributo o infringir otras restricciones de equidad.