Ta strona zawiera hasła z glosariusza dotyczące uczciwości. Aby poznać wszystkie terminy z glosariusza, kliknij tutaj.
A
atrybut
Synonim funkcji.
W systemach uczących się sprawiedliwość często odnosi się do cech dotyczących poszczególnych osób.
błąd automatyzacji
Gdy osoba podejmująca decyzję preferuje rekomendacje tworzone przez automatyczny system podejmowania decyzji nad informacjami tworzonymi bez automatyzacji, nawet gdy automatyczny system podejmowania decyzji popełnia błędy.
Więcej informacji znajdziesz w sekcji Uczciwość: rodzaje uprzedzeń z Kursu intensywnego na temat uczenia maszynowego.
B
uprzedzenie (etyka/sprawiedliwość)
1. Tworzenie stereotypów lub faworyzowanie określonych rzeczy, ludzi lub grup względem innych. Te uprzedzenia mogą wpływać na zbieranie i interpretowanie danych, projektowanie systemu oraz sposób, w jaki użytkownicy z nim współpracują. Do tego rodzaju stronniczości należą m.in.:
- automatyzacja
- efekt potwierdzenia
- błąd badacza,
- błąd uogólnienia
- nieświadome uprzedzenia
- stronniczość wewnątrzgrupowa
- błąd jednorodności grupy obcej
2. Błąd systematyczny wprowadzony przez procedury próbkowania lub raportowania. Do tego rodzaju stronniczości należą m.in.:
Nie należy mylić tego pojęcia z terminem „bias” w modelach uczenia maszynowego ani z uprzedzeniem prognozy.
Więcej informacji znajdziesz w sekcji Uczciwość: rodzaje uprzedzeń z Kursu intensywnego z machine learningu.
C
efekt potwierdzenia
to tendencja do wyszukiwania, interpretowania, faworyzowania i przywoływania informacji w sposób, który potwierdza wcześniejsze przekonania lub hipotezy. Deweloperzy systemów uczących się mogą nieumyślnie zbierać lub oznaczać dane w sposób, który wpływa na wynik, potwierdzając ich dotychczasowe przekonania. Efekt potwierdzenia jest formą nieświadomego uprzedzeń.
Błąd eksperymentatora to forma efektu potwierdzenia, w której eksperymentator kontynuuje trenowanie modeli do momentu potwierdzenia wcześniejszej hipotezy.
obiektywność kontrfaktyczna
Miara sprawiedliwości, która sprawdza, czy klasyfikator daje ten sam wynik dla jednej osoby co dla innej osoby, która jest identyczna z pierwszą, z wyjątkiem co najmniej jednego wrażliwego atrybutu. Ocena klasyfikatora pod kątem obiektywności warunkowej to jeden ze sposobów na wykrycie potencjalnych źródeł stronniczości w modelu.
Więcej informacji znajdziesz w jednym z tych artykułów:
- Uczciwość: uczciwość kontrafacktyczna w szybkim szkoleniu z systemów uczących się.
- When Worlds Collide: Integrating Different Counterfactual Assumptions in Fairness
błąd pokrycia
Zobacz błąd doboru.
D
parytet demograficzny
Wskaźnik obiektywności, który jest spełniony, jeśli wyniki klasyfikacji modelu nie zależą od danego atrybutu wrażliwego.
Jeśli np. zarówno Lilliputianie, jak i Brobdingnagijczycy aplikują do Uniwersytetu w Glubbdubdrib, równość demograficzna jest osiągnięta, gdy odsetek przyjętych Lilliputian jest taki sam jak odsetek przyjętych Brobdingnagijczyków, niezależnie od tego, czy jedna grupa jest średnio lepiej wykwalifikowana od drugiej.
W odróżnieniu od równych szans i równości szans, które umożliwiają, aby wyniki klasyfikacji w ujęciu zbiorczym zależały od atrybutów wrażliwych, ale nie zezwalają, aby wyniki klasyfikacji dla określonych etykiet rzeczywistego stanu zależały od atrybutów wrażliwych. Aby zobaczyć wizualizację przedstawiającą kompromisy, jakie należy dokonać podczas optymalizacji pod kątem parytetu demograficznego, przeczytaj artykuł „Walka z dyskryminacją dzięki inteligentniejszym systemom uczącym się”.
Więcej informacji znajdziesz w sekcji Uczciwość: parytety demograficzne w Szybkim szkoleniu z uczenia maszynowego.
dyskryminujące skutki
podejmowanie decyzji dotyczących osób, które mają nieproporcjonalny wpływ na różne podgrupy populacji; Zwykle dotyczy to sytuacji, w których algorytmiczny proces podejmowania decyzji szkodzi niektórym podgrupom lub przynosi im korzyści bardziej niż innym.
Załóżmy na przykład, że algorytm, który określa, czy liliput ma prawo do pożyczki na zakup miniaturowego domu, prawdopodobnie sklasyfikuje go jako „niekwalifikującego się”, jeśli jego adres pocztowy zawiera określony kod pocztowy. Jeśli mieszkańcy Lilliputu z wielkim endianem częściej mają adresy pocztowe z tym kodem pocztowym niż mieszkańcy Lilliputu z małym endianem, ten algorytm może mieć nierówny wpływ.
W przeciwieństwie do różnego traktowania, które koncentruje się na różnicach wynikających z charakterystyk podgrup, które są jawnymi danymi wejściowymi w ramach procesu podejmowania decyzji przez algorytm.
odmienne traktowanie
uwzględnianie wrażliwych danych użytkowników w algorytmicznym procesie podejmowania decyzji, tak aby różne podgrupy osób były traktowane inaczej;
Rozważmy na przykład algorytm, który określa, czy mieszkańcy Lilliputu kwalifikują się do uzyskania pożyczki na miniaturowy dom na podstawie danych podanych w wniosku o pożyczkę. Jeśli algorytm używa afiliacji Lilliputian jako dużego lub małego endiana, stosuje różne traktowanie w tym wymiarze.
W przeciwieństwie do różnych wpływów, które koncentrują się na różnicach w społecznych skutkach decyzji algorytmicznych na podgrupy, niezależnie od tego, czy te podgrupy są danymi wejściowymi modelu.
E
równość szans
Wskaźnik sprawiedliwości, który pozwala ocenić, czy model prognozuje pożądany wynik równie dobrze w przypadku wszystkich wartości wrażliwego atrybutu. Inaczej mówiąc, jeśli pożądanym wynikiem działania modelu jest klasa pozytywna, celem jest osiągnięcie prawdziwej wartości pozytywnej w przypadku wszystkich grup.
Równe szanse są powiązane z równymi szansami, które wymagają, aby zarówno współczynniki wyników prawdziwie pozytywnych, jak i wyników fałszywie dodatnich były takie same we wszystkich grupach.
Załóżmy, że Uniwersytet Glubbdubdrib przyjmuje zarówno Liliputan, jak i Brobdingnagijczyków do rygorystycznego programu matematycznego. Szkoły średnie w Lilliput oferują solidny program nauczania matematyki, a znaczna większość uczniów kwalifikuje się do studiów uniwersyteckich. Szkoły średnie w Brobdingnag nie oferują w ogóle zajęć z matematyki, w wyniku czego znacznie mniej ich uczniów ma odpowiednie kwalifikacje. Równe szanse są zapewnione w przypadku preferowanej etykiety „przyjęcie” w związku z przynależnością narodową (Lilliputianin lub Brobdingnagijczyk), jeśli kwalifikujący się uczniowie mają równe szanse na przyjęcie niezależnie od tego, czy są Lilliputianami czy Brobdingnagijczykami.
Załóżmy na przykład, że na Uniwersytet Glubbdubdrib aplikuje 100 mieszkańców Lilliputu i 100 mieszkańców Brobdingnag. Decyzje dotyczące przyjęcia na studia są podejmowane w następujący sposób:
Tabela 1. Lilliputian applicants (90% are qualified)
Zakwalifikowany | Niezakwalifikowany | |
---|---|---|
Przyjęty | 45 | 3 |
Odrzucono | 45 | 7 |
Łącznie | 90 | 10 |
Odsetek przyjętych kwalifikujących się uczniów: 45/90 = 50% Odsetek odrzuconych niekwalifikujących się uczniów: 7/10 = 70% Całkowity odsetek przyjętych uczniów z Lilliput: (45+3)/100 = 48% |
Tabela 2. Kandydaci z Brodbingnii (10% kwalifikuje się):
Zakwalifikowany | Niezakwalifikowany | |
---|---|---|
Przyjęty | 5 | 9 |
Odrzucono | 5 | 81 |
Łącznie | 10 | 90 |
Odsetek przyjętych studentów spełniających kryteria: 5/10 = 50% Odsetek odrzuconych studentów niespełniających kryteriów: 81/90 = 90% Całkowity odsetek przyjętych studentów z Brobdingnagi: (5+9)/100 = 14% |
Powyższe przykłady spełniają wymóg równości szans w przyjmowaniu kwalifikujących się uczniów, ponieważ zarówno kwalifikujący się Lilliputanie, jak i Brobdingnagowie mają 50% szans na przyjęcie.
Warunek równości szans jest spełniony, ale nie spełniają się 2 kryteria obiektywności:
- parytet demograficzny: Lilliputanie i Brobdingnagowie są przyjmowani na studia w różnym stopniu; 48% Lilliputanów zostaje przyjętych, ale tylko 14% Brobdingnagów.
- Równe szanse: choć kwalifikujący się studenci z Lilliput i Brobdingnag mają takie same szanse na przyjęcie, nie jest spełniony dodatkowy warunek, że kwalifikujący się studenci z Lilliput i Brobdingnag mają takie same szanse na odrzucenie. Niekwalifikujący się Liliputanie mają wskaźnik odrzuceń na poziomie 70%, a niekwalifikujący się Brobdingnanie – 90%.
Więcej informacji znajdziesz w sekcji Uczciwość: równe szanse w Szybkim szkoleniu z uczenia maszynowego.
wyrównane szanse
Dane o sprawiedliwości, które pozwalają ocenić, czy model prognozuje wyniki równie dobrze dla wszystkich wartości wrażliwego atrybutu w przypadku zarówno klasy pozytywnej, jak i klasy negatywnej, a nie tylko jednej z nich. Inaczej mówiąc, zarówno współczynnik wyników prawdziwie pozytywnych, jak i współczynnik wyników fałszywie negatywnych powinny być takie same we wszystkich grupach.
Równe szanse są powiązane z równością szans, która skupia się tylko na współczynnikach błędów w pojedynczej klasie (dodatnich lub ujemnych).
Załóżmy na przykład, że Uniwersytet Glubbdubdrib przyjmuje do rygorystycznego programu matematycznego zarówno Liliputan, jak i Brobdingnagijczyków. Szkoły średnie na Lilliputii oferują solidny program nauczania matematyki, a znaczna większość uczniów kwalifikuje się do studiów uniwersyteckich. Szkoły średnie w Brobdingnadze w ogóle nie oferują zajęć z matematyki, w wyniku czego znacznie mniej uczniów spełnia wymagania. Warunek równości szans jest spełniony, jeśli bez względu na to, czy kandydat jest Liliputanem czy Brobdingnagijczykiem, jeśli spełnia wymagania, ma równe szanse na przyjęcie do programu, a jeśli ich nie spełnia, ma równe szanse na odrzucenie.
Załóżmy, że do uniwersytetu Glubbdubdrib zgłosiło się 100 Lilliputów i 100 Brobdingnagów, a decyzje o przyjęciu zostały podjęte w ten sposób:
Tabela 3. Lilliputian applicants (90% are qualified)
Zakwalifikowany | Niezakwalifikowany | |
---|---|---|
Przyjęty | 45 | 2 |
Odrzucono | 45 | 8 |
Łącznie | 90 | 10 |
Odsetek przyjętych kwalifikujących się uczniów: 45/90 = 50% Odsetek odrzuconych niekwalifikujących się uczniów: 8/10 = 80% Całkowity odsetek przyjętych uczniów z Lilliput: (45+2)/100 = 47% |
Tabela 4. Kandydaci z Brodbingnii (10% kwalifikuje się):
Zakwalifikowany | Niezakwalifikowany | |
---|---|---|
Przyjęty | 5 | 18 |
Odrzucono | 5 | 72 |
Łącznie | 10 | 90 |
Odsetek przyjętych studentów spełniających wymagania: 5/10 = 50% Odsetek odrzuconych studentów, którzy nie spełniali wymagań: 72/90 = 80% Całkowity odsetek przyjętych studentów z Brobdingnagi: (5 + 18)/100 = 23% |
Warunek równych szans jest spełniony, ponieważ zarówno kwalifikujący się studenci z Lilliputu, jak i z Brobdingnag mają 50% szans na przyjęcie, a niekwalifikujący się studenci z Lilliputu i z Brobdingnag mają 80% szans na odrzucenie.
Równe szanse są formalnie zdefiniowane w artykule „Równe szanse w nauce nadzorowanej” w ten sposób: „Predictor Ŷ spełnia warunek równych szans w odniesieniu do chronionego atrybutu A i wyniku Y, jeśli Ŷ i A są niezależne, warunkowo na Y”.
efekt eksperymentatora
Zobacz efekt potwierdzenia.
F
ograniczenie obiektywności
Zastosowanie ograniczenia do algorytmu w celu zapewnienia spełnienia co najmniej jednej definicji obiektywności. Przykłady ograniczeń związanych z sprawiedliwością:- Postprocessing wyników modelu.
- Zmiana funkcji straty w celu uwzględnienia kary za naruszenie kryterium sprawiedliwości.
- bezpośrednie dodawanie ograniczeń matematycznych do problemu optymalizacji;
wskaźnik obiektywności
matematyczna definicja „obiektywności”, która jest możliwa do zmierzenia; Do najczęściej używanych wskaźników sprawiedliwości należą:
Wiele wskaźników obiektywności wyklucza się wzajemnie. Więcej informacji znajdziesz w artykule Brak spójności wskaźników obiektywności.
G
błąd uogólnienia,
Zakładanie, że to, co jest prawdziwe w przypadku danej osoby, jest też prawdziwe w przypadku wszystkich innych osób w tej grupie. Skutki błędu atrybucji grupowej mogą być nasilone, jeśli do zbierania danych używasz próbkowania dogodnego. W przypadku próby niereprezentatywnej mogą wystąpić przypisania, które nie odzwierciedlają rzeczywistości.
Zobacz też błąd jednorodności grupy obcej i błąd stronniczości wewnątrzgrupowej. Więcej informacji znajdziesz w artykule Uczciwość: rodzaje stronnicości z cyklu Crash Course o systemach uczących się.
H
efekt historyczny
Typ uprzedzeń, który występuje już w świecie i znalazł się w zbiorze danych. Te uprzedzenia mają tendencję do odzwierciedlania istniejących stereotypów kulturowych, nierówności demograficznych i uprzedzeń wobec niektórych grup społecznych.
Rozważ na przykład model klasyfikacji, który przewiduje, czy pożyczkobiorca nie spłaci pożyczki. Model został wytrenowany na podstawie historycznych danych o niespłaconych pożyczkach pochodzących z lat 80. XX w. z banków lokalnych z dwóch różnych społeczności. Jeśli w przypadku poprzednich wniosków złożonych przez członków społeczności A ryzyko niespłacenia kredytu było 6 razy większe niż w przypadku wniosków złożonych przez członków społeczności B, model może nauczyć się historycznego uprzedzeństwa, co spowoduje, że będzie mniej skłonny do zatwierdzania kredytów w społeczności A, nawet jeśli historyczne warunki, które spowodowały wyższe wskaźniki niespłacenia w tej społeczności, nie są już istotne.
Więcej informacji znajdziesz w sekcji Uczciwość: rodzaje uprzedzeń z Kursu intensywnego na temat uczenia maszynowego.
I
nieświadome uprzedzenia
Automatyczne tworzenie skojarzeń lub założeń na podstawie modeli i wspomnień. Ukryte uprzedzenia mogą wpływać na:
- sposobach zbierania i klasyfikowania danych;
- Jak projektować i rozwijać systemy uczące się.
Na przykład podczas tworzenia klasyfikatora do rozpoznawania zdjęć ślubnych inżynier może użyć jako cechy obecności białej sukni na zdjęciu. Jednak białe suknie były zwyczajowo noszone tylko w określonych epokach i kulturach.
Zobacz też efekt potwierdzenia.
niezgodność wskaźników obiektywności
Pogląd, że niektóre pojęcia obiektywności są niekompatybilne i nie mogą być spełnione jednocześnie. W rezultacie nie ma jednego uniwersalnego wskaźnika obiektywności, który można stosować do wszystkich problemów z użyciem uczenia maszynowego.
Chociaż może to zniechęcać, brak spójności wskaźników obiektywności nie oznacza, że wysiłki na rzecz obiektywności są bezowocne. Zamiast tego sugeruje, że obiektywność trzeba definiować w kontekście określonego problemu związanego z ML, aby zapobiegać szkodom związanym z danymi zastosowaniami.
Więcej informacji na ten temat znajdziesz w artykule „O możliwościach i niemożnościach zapewnienia sprawiedliwości”.
obiektywność w stosunku do poszczególnych osób,
Dane dotyczące sprawiedliwości, które sprawdzają, czy podobne osoby są klasyfikowane w podobny sposób. Na przykład Brobdingnagian Academy może chcieć zapewnić sprawiedliwość indywidualną, dbając o to, aby dwoje uczniów z identycznymi ocenami i wynikami testów standaryzowanych mieli równe szanse na przyjęcie.
Pamiętaj, że indywidualna sprawiedliwość zależy wyłącznie od tego, jak zdefiniujesz „podobność” (w tym przypadku oceny i wyniki testów). Jeśli wskaźnik podobieństwa pomija ważne informacje (np. rygorystyczne wymagania programu nauczania), możesz narazić się na ryzyko wprowadzenia nowych problemów z sprawiedliwością.
Aby dowiedzieć się więcej o sprawiedliwości indywidualnej, zapoznaj się z artykułem „Fairness Through Awarenes”.
stronniczość wewnątrzgrupowa
Przejawianie stronniczości wobec własnej grupy lub własnych cech. Jeśli testerzy lub oceniający to przyjaciele, rodzina lub współpracownicy dewelopera, testy produktu lub zestaw danych mogą być niewiarygodne z powodu stronniczości wewnątrz grupy.
Stronniczość wewnątrzgrupowa jest formą błędu uogólnienia. Zobacz też błąd jednorodności grupy obcej.
Więcej informacji znajdziesz w sekcji Uczciwość: rodzaje uprzedzeń z Kursu intensywnego z machine learningu.
N
błąd braku odpowiedzi
Zobacz błąd doboru.
O
błąd jednorodności grupy obcej
skłonność do postrzegania członków grupy obcej jako bardziej podobnych do siebie niż członków grupy własnej podczas porównywania postaw, wartości, cech osobowości i innych cech. Grupa wewnętrzna to osoby, z którymi regularnie się kontaktujesz, a grupa zewnętrzna to osoby, z którymi nie masz regularnych kontaktów. Jeśli zbiór danych zostanie utworzony przez poproszenie uczestników o podanie atrybutów dotyczących grup zewnętrznych, te atrybuty mogą być mniej zróżnicowane i bardziej stereotypowe niż atrybuty, które uczestnicy podają w przypadku osób z ich grupy.
Na przykład Liliputanie mogą szczegółowo opisywać domy innych Liliputan, podając niewielkie różnice w stylach architektonicznych, oknach, drzwiach i rozmiarach. Jednak ci sami Liliputanie mogą po prostu oświadczyć, że wszyscy Brobdingnagowie mieszkają w identycznych domach.
Błąd jednorodności grupy obcej jest formą błędu uogólnienia.
Zapoznaj się też z stronniczością wewnątrzgrupową.
P
efekt udziału
Synonim błędu braku odpowiedzi. Zobacz błąd doboru.
przetwarzanie końcowe
Dostosowywanie danych wyjściowych modelu po jego uruchomieniu. Przetwarzanie wsteczne można wykorzystać do egzekwowania ograniczeń sprawiedliwości bez modyfikowania samych modeli.
Można na przykład zastosować przetwarzanie wsteczne do klasyfikatora binarnego, ustawiając próg klasyfikacji w taki sposób, aby równać szanse w przypadku danego atrybutu. W tym celu należy sprawdzić, czy wskaźnik prawdziwych wyników dodatnich jest taki sam dla wszystkich wartości tego atrybutu.
równość prognozowana
Dane dotyczące sprawiedliwości, które sprawdzają, czy w przypadku danego klasyfikatora współczynniki precyzyjności są równoważne w przypadku rozpatrywanych podgrup.
Na przykład model, który przewiduje przyjęcie na studia, spełnia warunek równości prognoz dla narodowości, jeśli jego współczynnik dokładności jest taki sam w przypadku Lilliputów i Brobdingnagijczyków.
Równość prognozowana jest czasami nazywana równością stawek prognozowanych.
Więcej informacji o równości w ramach prognozowania znajdziesz w sekcji „Definicje uczciwości” (sekcja 3.2.1).
parytet stawek prognozowanych
Inna nazwa prognostycznych parzystw.
przetwarzanie wstępne
Przetwarzanie danych przed ich użyciem do trenowania modelu. Przetwarzanie wstępne może być tak proste jak usuwanie z korpusu tekstów w języku angielskim słów, które nie występują w słowniku angielskim, lub tak złożone jak ponowne wyrażanie punktów danych w sposób, który eliminuje jak najwięcej atrybutów skorelowanych z wrażliwymi atrybutami. Przetwarzanie wstępne może pomóc w spełnieniu ograniczeń obiektywności.proxy (atrybuty wrażliwe)
Atrybut używany jako zamiennik atrybutu wrażliwego. Na przykład kod pocztowy może być używany jako przybliżony wskaźnik dochodu, rasy lub pochodzenia etnicznego.R
błędy w raportowaniu,
Częstotliwość, z jaką ludzie piszą o działaniach, wynikach lub właściwościach, nie odzwierciedla ich rzeczywistej częstotliwości występowania ani stopnia, w jakim dana właściwość jest charakterystyczna dla danej grupy osób. Uprzedzeń w raportowaniu może wpływać na skład danych, z których systemy uczące się maszynowo czerpią informacje.
Na przykład w książkach słowo laughed występuje częściej niż breathed. Model uczenia maszynowego, który szacuje względną częstotliwość śmiechu i oddychania na podstawie zbioru tekstów, prawdopodobnie ustali, że śmiech jest częstszy niż oddychanie.
S
błąd próbkowania
Zobacz błąd doboru.
błąd doboru
Błędy w wnioskach wywnioskowanych na podstawie danych próbnych z powodu procesu selekcji, który powoduje systematyczne różnice między próbami obserwowanymi w danych a tymi, których nie obserwowano. Występują następujące formy błędu doboru:
- błąd pokrycia: populacja reprezentowana w zbiorze danych nie jest taka sama jak populacja, dla której model systemów uczących się dokonuje prognoz.
- błąd próbkowania: dane nie są zbierane losowo w grupie docelowej.
- Błąd nieodpowiadania (nazywany też błędem udziału): użytkownicy z pewnych grup rezygnują z ankiet w innym stopniu niż użytkownicy z innych grup.
Załóżmy na przykład, że tworzysz model uczenia maszynowego, który przewiduje, czy ludziom spodoba się dany film. Aby zebrać dane szkoleniowe, rozdaj ankietę wszystkim osobom w pierwszym rzędzie kina, w którym wyświetlany jest film. Na pierwszy rzut oka może się wydawać, że jest to rozsądny sposób zbierania zbioru danych, ale ta forma gromadzenia danych może wprowadzać następujące rodzaje błędów doboru:
- błędy związane z zasięgiem: ze względu na to, że próba pochodzi od osób, które zdecydowały się obejrzeć film, przewidywania modelu mogą nie dotyczyć osób, które nie wyraziły jeszcze zainteresowania tym filmem.
- błędy doboru próby: zamiast losowo wybrać osoby z wybranej populacji (wszystkich widzów w kinie), wybrano tylko osoby z pierwszego rzędu. Możliwe, że osoby siedzące w pierwszym rzędzie były bardziej zainteresowane filmem niż te z innych rzędów.
- stronniczość: ogólnie osoby o mocnych poglądach częściej odpowiadają na opcjonalne ankiety niż osoby o słabszych poglądach. Ankieta dotycząca filmu jest opcjonalna, więc odpowiedzi prawdopodobnie będą miały rozkład bimodalny, a nie rozkład normalny (w kształcie dzwonu).
atrybut wrażliwy
Atrybut człowieka, który może wymagać szczególnej rozwagi z przyczyn prawnych, etycznych, społecznych lub osobistych.U
brak świadomości (w przypadku atrybutu wrażliwego)
Sytuacja, w której występują atrybuty wrażliwe, ale nie są one uwzględnione w danych treningowych. Atrybuty wrażliwe są często skorelowane z innymi atrybutami danych, dlatego model trenowany bez uwzględnienia atrybutu wrażliwego może nadal mieć nieproporcjonalny wpływ na ten atrybut lub naruszać inne ograniczenia dotyczące sprawiedliwości.