Equidad
Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
La equidad aborda los posibles resultados dispares que pueden experimentar los usuarios finales en relación con características sensibles, como la raza, los ingresos, la orientación sexual o el género, a través de la toma de decisiones algorítmica. Por ejemplo, ¿un algoritmo de contratación podría tener sesgos a favor o en contra de los solicitantes con nombres asociados a un género o etnia en particular?
Obtén más información sobre cómo los sistemas de aprendizaje automático pueden ser susceptibles al sesgo humano en este video:
Para ver un ejemplo del mundo real, lee sobre cómo productos como la Búsqueda de Google y Google Fotos mejoraron la diversidad de la representación del tono de piel a través de la escala Monk Skin Tone.
Existen métodos confiables para identificar, medir y mitigar el sesgo en los modelos. El módulo Equidad del Curso intensivo de aprendizaje automático proporciona una mirada detallada a las técnicas de equidad y mitigación de sesgos.
People + AI Research (PAIR) ofrece Explorables de IA interactivos sobre Medición de la equidad y Sesgo oculto para explicar estos conceptos.
Para conocer más términos relacionados con la equidad en el AA, consulta el Glosario de aprendizaje automático: Equidad | Google for Developers.
Salvo que se indique lo contrario, el contenido de esta página está sujeto a la licencia Atribución 4.0 de Creative Commons, y los ejemplos de código están sujetos a la licencia Apache 2.0. Para obtener más información, consulta las políticas del sitio de Google Developers. Java es una marca registrada de Oracle o sus afiliados.
Última actualización: 2025-07-27 (UTC)
[null,null,["Última actualización: 2025-07-27 (UTC)"],[[["\u003cp\u003eFairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions.\u003c/p\u003e\n"],["\u003cp\u003eMachine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation.\u003c/p\u003e\n"],["\u003cp\u003eGoogle has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity.\u003c/p\u003e\n"],["\u003cp\u003eDevelopers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR).\u003c/p\u003e\n"]]],[],null,["# Fairness\n\n\u003cbr /\u003e\n\n**Fairness** addresses the possible disparate outcomes end users may experience\nrelated to sensitive characteristics such as race, income, sexual orientation,\nor gender through algorithmic decision-making. For example, might a hiring\nalgorithm have biases for or against applicants with names associated with a\nparticular gender or ethnicity?\n\nLearn more about how machine learning systems might be susceptible to human bias\nin this video: \n\n\u003cbr /\u003e\n\nFor a real world example, read about how products such as Google Search and\nGoogle Photos improved diversity of skin tone representation through the\n[Monk Skin Tone Scale](https://blog.google/products/search/monk-skin-tone-scale/).\n\nThere are reliable methods of identifying, measuring, and mitigating bias in models. The [Fairness](/machine-learning/crash-course/fairness)\nmodule of [Machine Learning Crash Course](https://developers.google.com/machine-learning/crash-course)\nprovides an in-depth look at fairness and bias mitigation techniques.\n\n[People + AI Research](https://pair.withgoogle.com/) (PAIR) offers interactive\nAI Explorables on [Measuring Fairness](https://pair.withgoogle.com/explorables/measuring-fairness/)\nand [Hidden Bias](https://pair.withgoogle.com/explorables/hidden-bias/) to walk\nthrough these concepts.\nFor more terms related to ML Fairness, see [Machine Learning Glossary:\nFairness \\| Google for Developers](https://developers.google.com/machine-learning/glossary/fairness)."]]