Justiça
A imparcialidade aborda os possíveis resultados diferentes que os usuários finais podem ter relacionados a características sensíveis, como raça, renda, orientação sexual ou gênero, por meio da tomada de decisões algorítmicas. Por exemplo, um algoritmo de contratação pode ter vieses a favor ou contra candidatos com nomes associados a um gênero ou etnia específicos?
Saiba mais sobre como os sistemas de aprendizado de máquina podem ser suscetíveis a vieses humanos neste vídeo:
Para um exemplo do mundo real, leia sobre como produtos como a Pesquisa Google e o Google Fotos melhoraram a diversidade da representação do tom de pele usando a escala Monk Skin Tone.
Há métodos confiáveis para identificar, medir e reduzir o viés nos modelos. O módulo Imparcialidade do Curso intensivo de machine learning oferece uma análise detalhada das técnicas de imparcialidade e mitigação de viés.
O People + AI Research (PAIR) oferece explorações interativas de IA sobre Como medir a imparcialidade e Viés oculto para explicar esses conceitos. Para conferir mais termos relacionados à imparcialidade do ML, consulte o Glossário de aprendizado de máquina: imparcialidade | Google for Developers.