Imparcialidade: como mitigar o viés

Quando uma fonte de viés foi identificada nos dados de treinamento, podemos tomar medidas proativas para mitigar seus efeitos. Há duas estratégias principais que o machine learning (ML) os engenheiros geralmente empregam para remediar vieses:

  • Aumentando os dados de treinamento.
  • Ajustar a função de perda do modelo.

Aumentar os dados de treinamento

Se uma auditoria dos dados de treinamento descobrir problemas com erros ou dados distorcidos, a maneira mais direta de resolver o problema é muitas vezes para coletar dados adicionais.

Aumentar os dados de treinamento pode ser ideal, mas a desvantagem abordagem é que ela também pode ser inviável, seja devido à falta os dados disponíveis ou as restrições de recursos que impedem a coleta de dados. Por exemplo: coletar mais dados pode ser muito cara, demorada ou inviável devido à restrições legais/de privacidade.

Ajustar a função de otimização do modelo

Nos casos em que não é viável coletar dados de treinamento adicionais, abordagem para atenuar o viés é ajustar como a perda é calculada durante treinamento. Normalmente, usamos uma função de otimização log perda para penalizar o modelo incorreto previsões. No entanto, a perda de registros não aceita a associação de subgrupos consideração. Em vez de usar a Log Perda, podemos escolher uma otimização função criada para penalizar erros com imparcialidade que neutraliza os desequilíbrios identificados nos dados de treinamento.

A biblioteca Model Remediation do TensorFlow fornece utilitários para aplicar duas diferentes técnicas de mitigação de viés durante o treinamento de modelo:

  • MinDiff: O MinDiff visa equilibrar os erros de duas fatias diferentes de dados. (estudantes do sexo masculino x não binário) adicionando uma penalidade para diferenças nas distribuições de previsão para os dois grupos.

  • Pareamento de logit contrafactual: O pareamento de logit contrafactual (CLP) tem como objetivo garantir que a alteração de um de um determinado exemplo não altera a previsão do modelo para esse exemplo. Por exemplo, se um conjunto de dados de treinamento contém dois exemplos cujos os valores dos atributos são idênticos, exceto que um deles tem um valor gender de male e a outra tiver um valor gender de nonbinary, o CLP vai adicionar uma penalidade se as previsões desses dois exemplos são diferentes.

As técnicas escolhidas para ajustar a função de otimização são dependem dos casos de uso do modelo. Na próxima seção, vamos analisar uma análise mais detalhada de como abordar a tarefa de avaliar a imparcialidade de um modelo considerando esses casos de uso.

Exercício: testar seu conhecimento

Quais das seguintes afirmações sobre técnicas de mitigação de vieses são verdadeiras?
MinDiff e CLP penalizam as discrepâncias no desempenho do modelo vinculadas a atributos sensíveis
Ambas as técnicas visam mitigar o viés ao penalizar a previsão erros resultantes de desequilíbrios na forma como os atributos sensíveis representados nos dados de treinamento.
MinDiff penaliza as diferenças na distribuição geral da previsões para diferentes frações de dados, enquanto o CLP penaliza discrepâncias nas previsões para pares individuais de exemplos.
MinDiff aborda o viés ao alinhar distribuições de pontuação para dois subgrupos. O CLP combate o viés garantindo que exemplos individuais sejam não são tratadas de forma diferente apenas por causa de sua associação a subgrupos.
Adicionar mais exemplos ao conjunto de dados de treinamento sempre ajudará neutralizar o viés nas previsões de um modelo.
Incluir mais exemplos de treinamento é uma estratégia eficaz mitigação do viés, mas a composição dos novos dados de treinamento é importante. Se os exemplos de treinamento adicionais exibirem imagens desequilíbrios em relação aos dados originais, elas provavelmente não ajudarão a mitigar o viés existente.
Se você está reduzindo o viés adicionando mais dados de treinamento, também não deve aplicar MinDiff ou CLP durante o treinamento.
Aumentar os dados de treinamento e aplicar técnicas como MinDiff ou CLP podem ser complementares. Por exemplo, um engenheiro de ML pode coletar dados de treinamento adicionais o suficiente para reduzir as discrepâncias no desempenho em 30% e depois usar MinDiff para reduzir ainda mais o e a discrepância entre eles em mais 50%.