Quando uma fonte de viés foi identificada nos dados de treinamento, podemos tomar medidas proativas para mitigar seus efeitos. Há duas estratégias principais que o machine learning (ML) os engenheiros geralmente empregam para remediar vieses:
- Aumentando os dados de treinamento.
- Ajustar a função de perda do modelo.
Aumentar os dados de treinamento
Se uma auditoria dos dados de treinamento descobrir problemas com erros ou dados distorcidos, a maneira mais direta de resolver o problema é muitas vezes para coletar dados adicionais.
Aumentar os dados de treinamento pode ser ideal, mas a desvantagem abordagem é que ela também pode ser inviável, seja devido à falta os dados disponíveis ou as restrições de recursos que impedem a coleta de dados. Por exemplo: coletar mais dados pode ser muito cara, demorada ou inviável devido à restrições legais/de privacidade.
Ajustar a função de otimização do modelo
Nos casos em que não é viável coletar dados de treinamento adicionais, abordagem para atenuar o viés é ajustar como a perda é calculada durante treinamento. Normalmente, usamos uma função de otimização log perda para penalizar o modelo incorreto previsões. No entanto, a perda de registros não aceita a associação de subgrupos consideração. Em vez de usar a Log Perda, podemos escolher uma otimização função criada para penalizar erros com imparcialidade que neutraliza os desequilíbrios identificados nos dados de treinamento.
A biblioteca Model Remediation do TensorFlow fornece utilitários para aplicar duas diferentes técnicas de mitigação de viés durante o treinamento de modelo:
MinDiff: O MinDiff visa equilibrar os erros de duas fatias diferentes de dados. (estudantes do sexo masculino x não binário) adicionando uma penalidade para diferenças nas distribuições de previsão para os dois grupos.
Pareamento de logit contrafactual: O pareamento de logit contrafactual (CLP) tem como objetivo garantir que a alteração de um de um determinado exemplo não altera a previsão do modelo para esse exemplo. Por exemplo, se um conjunto de dados de treinamento contém dois exemplos cujos os valores dos atributos são idênticos, exceto que um deles tem um valor
gender
demale
e a outra tiver um valorgender
denonbinary
, o CLP vai adicionar uma penalidade se as previsões desses dois exemplos são diferentes.
As técnicas escolhidas para ajustar a função de otimização são dependem dos casos de uso do modelo. Na próxima seção, vamos analisar uma análise mais detalhada de como abordar a tarefa de avaliar a imparcialidade de um modelo considerando esses casos de uso.