obiektywność: łagodzenie uprzedzeń

Kiedy jest źródłem uprzedzeń, został zidentyfikowany w danych treningowych, możemy podejmować działania, aby złagodzić jego skutki. Systemy uczące się dzielą się na 2 główne strategie: Inżynierowie zazwyczaj zatrudniają się do eliminowania uprzedzeń:

  • Ulepszanie danych treningowych.
  • Dostosowywanie funkcji utraty w modelu.

Ulepszanie danych treningowych

Jeśli podczas kontroli danych treningowych wykryto problemy z brakującymi, nieprawidłowymi lub zniekształcone dane, najprostszym sposobem rozwiązania problemu jest często aby zebrać dodatkowe dane.

Jednak rozszerzanie danych treningowych może być idealnym rozwiązaniem, Takie podejście może być też niewykonalne ze względu na brak dostępności danych lub zasobów, które utrudniają zbieranie danych. Przykład: gromadzenie większej ilości danych może być zbyt kosztowne, czasochłonne lub nieopłacalne ze względu na ograniczenia prawne/prywatności.

Dostosowywanie funkcji optymalizacji modelu

Jeśli zebranie dodatkowych danych treningowych nie jest opłacalne, podejściem do zmniejszania uprzedzeń jest dostosowanie sposobu obliczania strat podczas modelu szkolenia internetowego. Zwykle używamy funkcji optymalizacji, takiej jak log loss (utraty logów), aby ukarać nieprawidłowy model; i generowanie prognoz. Jednak utrata logów nie uwzględnia członkostwa w podgrupie do rozważenia zakupu. Zamiast korzystać z logu straty, możemy wybrać optymalizację, ukształtowana z myślą o karze za błędy w sposób uwzględniający obiektywność, przeciwdziałają nierównościom, które wykryliśmy w naszych danych treningowych.

Biblioteka TensorFlow Model Remediation zawiera narzędzia do stosowania dwóch różnych technik ograniczania uprzedzeń podczas trenowania modelu:

  • MinDiff: MinDiff stara się zrównoważyć błędy w przypadku 2 różnych wycinków danych (studenci/kobiety i studenci niebinarni) przez nałożenie kary za różnic w rozkładach prognoz w tych 2 grupach.

  • Sparowanie logitów kontrfaktycznych: Counterfactual Logit Parowanie (CLP) ma na celu zapewnienie, że zmiana wrażliwej atrybutu danego przykładu nie zmienia prognozy modelu dla tego przykład. Na przykład jeśli zbiór danych treningowych zawiera 2 przykłady, których wartości cech są identyczne, z tą różnicą, że jedna ma gender wartość male i a drugi ma wartość gender wynoszącą nonbinary. CLP nałoży karę, jeśli prognozy dla tych 2 przykładów są różne.

Techniki wybrane do dostosowania funkcji optymalizacji to: w zależności od przypadków użycia modelu. W następnej sekcji przedstawimy Przyjrzyjmy się bliżej temu, jak podejść do zadania oceny modelu pod kątem obiektywności. analizując te przypadki użycia.

Ćwiczenie: sprawdź swoją wiedzę

Które z tych stwierdzeń na temat technik ograniczania uprzedzeń jest prawdziwe?
MinDiff i CLP nakładają na nie rozbieżności w skuteczności modelu powiązane z atrybutami poufnymi
Obie techniki mają na celu łagodzenie uprzedzeń przez nałożenie kary na prognozy błędów wynikających z braku równowagi poufności atrybutów reprezentowanych w danych treningowych.
MinDiff nakłada karę na różnice w ogólnym rozkładzie i prognozowanie w przypadku różnych wycinków danych, natomiast CLP nakłada kary rozbieżności w prognozach dla poszczególnych par przykładów.
MinDiff eliminuje uprzedzenia, wyrównując rozkłady wyników dla dwóch podgrup. CLP walczy z uprzedzeniami, dbając o to, aby poszczególne przykłady nie są traktowane inaczej wyłącznie ze względu na członkostwo w podgrupie.
Dodanie większej liczby przykładów do zbioru danych treningowych zawsze pomoże aby przeciwdziałać uprzedzeń w prognozach modelu.
Dodanie większej liczby przykładów treningowych to skuteczna strategia ale też na kompozycję nowych danych treningowych. Jeśli dodatkowe przykłady treningowe wykazują podobne cechy brak równowagi w stosunku do oryginalnych danych, prawdopodobnie nie pomoże ograniczyć istniejących uprzedzeń.
Jeśli ograniczasz uprzedzenia, dodając więcej danych treningowych, nie należy też stosować metod MinDiff ani CLP podczas trenowania.
Poszerzanie danych treningowych i stosowanie technik takich jak MinDiff czy CLP mogą stanowić uzupełnienie. Na przykład inżynier systemów uczących się może być w stanie aby zebrać wystarczającą ilość dodatkowych danych treningowych do zmniejszenia rozbieżności o 30%, a następnie użyj MinDiff, by jeszcze bardziej ograniczyć rozbieżność o kolejne 50%.