Kiedy jest źródłem uprzedzeń, został zidentyfikowany w danych treningowych, możemy podejmować działania, aby złagodzić jego skutki. Systemy uczące się dzielą się na 2 główne strategie: Inżynierowie zazwyczaj zatrudniają się do eliminowania uprzedzeń:
- Ulepszanie danych treningowych.
- Dostosowywanie funkcji utraty w modelu.
Ulepszanie danych treningowych
Jeśli podczas kontroli danych treningowych wykryto problemy z brakującymi, nieprawidłowymi lub zniekształcone dane, najprostszym sposobem rozwiązania problemu jest często aby zebrać dodatkowe dane.
Jednak rozszerzanie danych treningowych może być idealnym rozwiązaniem, Takie podejście może być też niewykonalne ze względu na brak dostępności danych lub zasobów, które utrudniają zbieranie danych. Przykład: gromadzenie większej ilości danych może być zbyt kosztowne, czasochłonne lub nieopłacalne ze względu na ograniczenia prawne/prywatności.
Dostosowywanie funkcji optymalizacji modelu
Jeśli zebranie dodatkowych danych treningowych nie jest opłacalne, podejściem do zmniejszania uprzedzeń jest dostosowanie sposobu obliczania strat podczas modelu szkolenia internetowego. Zwykle używamy funkcji optymalizacji, takiej jak log loss (utraty logów), aby ukarać nieprawidłowy model; i generowanie prognoz. Jednak utrata logów nie uwzględnia członkostwa w podgrupie do rozważenia zakupu. Zamiast korzystać z logu straty, możemy wybrać optymalizację, ukształtowana z myślą o karze za błędy w sposób uwzględniający obiektywność, przeciwdziałają nierównościom, które wykryliśmy w naszych danych treningowych.
Biblioteka TensorFlow Model Remediation zawiera narzędzia do stosowania dwóch różnych technik ograniczania uprzedzeń podczas trenowania modelu:
MinDiff: MinDiff stara się zrównoważyć błędy w przypadku 2 różnych wycinków danych (studenci/kobiety i studenci niebinarni) przez nałożenie kary za różnic w rozkładach prognoz w tych 2 grupach.
Sparowanie logitów kontrfaktycznych: Counterfactual Logit Parowanie (CLP) ma na celu zapewnienie, że zmiana wrażliwej atrybutu danego przykładu nie zmienia prognozy modelu dla tego przykład. Na przykład jeśli zbiór danych treningowych zawiera 2 przykłady, których wartości cech są identyczne, z tą różnicą, że jedna ma
gender
wartośćmale
i a drugi ma wartośćgender
wynoszącąnonbinary
. CLP nałoży karę, jeśli prognozy dla tych 2 przykładów są różne.
Techniki wybrane do dostosowania funkcji optymalizacji to: w zależności od przypadków użycia modelu. W następnej sekcji przedstawimy Przyjrzyjmy się bliżej temu, jak podejść do zadania oceny modelu pod kątem obiektywności. analizując te przypadki użycia.