Glossary: Responsible AI (AI – sztuczna inteligencja)

Ta strona zawiera terminy z glosariusza odpowiedzialnej AI. Aby wyświetlić wszystkie terminy z glosariusza, kliknij tutaj.

A

atrybut

#responsible

Synonim funkcji.

W kontekście sprawiedliwości w uczeniu maszynowym atrybuty często odnoszą się do cech charakterystycznych osób.

błąd automatyzacji

#responsible

Gdy osoba podejmująca decyzję faworyzuje rekomendacje systemu automatycznego podejmowania decyzji w stosunku do informacji uzyskanych bez automatyzacji, nawet jeśli system automatycznego podejmowania decyzji popełnia błędy.

Więcej informacji znajdziesz w module Sprawiedliwość: rodzaje odchyleń w kursie Machine Learning Crash Course.

B

uprzedzenia (etyka/uczciwość),

#responsible
#fundamentals

1. Tworzenie stereotypów lub faworyzowanie określonych rzeczy, ludzi lub grup względem innych. Te odchylenia mogą wpływać na zbieranie i interpretowanie danych, projektowanie systemu oraz sposób, w jaki użytkownicy z nim wchodzą w interakcje. Formy tego typu błędu obejmują:

2. Błąd systematyczny wprowadzony przez procedurę próbkowania lub raportowania. Formy tego typu błędu obejmują:

Nie należy go mylić z terminem „uprzedzenie” w modelach uczenia maszynowego ani z uprzedzeniem w prognozach.

Więcej informacji znajdziesz w sekcji Sprawiedliwość: rodzaje odchyleń w kursie Machine Learning Crash Course.

C

efekt potwierdzenia,

#responsible

to tendencja do wyszukiwania, interpretowania, faworyzowania i zapamiętywania informacji w sposób, który potwierdza wcześniejsze przekonania lub hipotezy. Deweloperzy systemów uczących się mogą nieumyślnie zbierać lub oznaczać dane w sposób, który wpływa na wynik potwierdzający ich dotychczasowe przekonania. Efekt potwierdzenia to forma nieświadomych uprzedzeń.

Błąd eksperymentatora to forma efektu potwierdzenia, w której eksperymentator kontynuuje trenowanie modeli, dopóki nie potwierdzi wcześniejszej hipotezy.

obiektywność kontrfaktyczna,

#responsible
#Dane

Miara sprawiedliwości, która sprawdza, czy model klasyfikacji daje ten sam wynik w przypadku 2 osób, z których jedna jest identyczna z drugą, z wyjątkiem co najmniej jednego atrybutu chronionego. Ocena modelu klasyfikacji pod kątem obiektywności kontrfaktycznej to jedna z metod wykrywania potencjalnych źródeł uprzedzeń w modelu.

Więcej informacji znajdziesz w tych artykułach:

błąd pokrycia,

#responsible

Zobacz błąd doboru.

D

parytet demograficzny

#responsible
#Dane

Metryka sprawiedliwości, która jest spełniona, jeśli wyniki klasyfikacji modelu nie zależą od danego atrybutu wrażliwego.

Jeśli na przykład zarówno Liliputanie, jak i Brobdingnagianie ubiegają się o przyjęcie na Uniwersytet Glubbdubdrib, równość demograficzna jest osiągana, gdy odsetek przyjętych Liliputanów jest taki sam jak odsetek przyjętych Brobdingnagian, niezależnie od tego, czy jedna grupa jest średnio bardziej wykwalifikowana od drugiej.

Kontrastuje to z wyrównanymi szansamirównością szans, które dopuszczają, aby wyniki klasyfikacji w agregacji zależały od atrybutów wrażliwych, ale nie dopuszczają, aby wyniki klasyfikacji dla określonych etykiet prawdziwych danych zależały od atrybutów wrażliwych. Więcej informacji znajdziesz w artykule „Walka z dyskryminacją za pomocą inteligentniejszych systemów uczących się”, w którym znajdziesz wizualizację przedstawiającą kompromisy przy optymalizacji pod kątem równości demograficznej.

Więcej informacji znajdziesz w sekcji Sprawiedliwość: równość demograficzna w szybkim szkoleniu z uczenia maszynowego.

nieproporcjonalny wpływ,

#responsible

podejmowanie decyzji dotyczących osób, które w nieproporcjonalny sposób wpływają na różne podgrupy populacji; Zwykle odnosi się to do sytuacji, w których proces podejmowania decyzji przez algorytm przynosi szkodę lub korzyść niektórym podgrupom bardziej niż innym.

Załóżmy na przykład, że algorytm określający, czy mieszkaniec Lilipucji kwalifikuje się do otrzymania kredytu na miniaturowy dom, częściej klasyfikuje go jako „niekwalifikującego się”, jeśli jego adres pocztowy zawiera określony kod pocztowy. Jeśli mieszkańcy Lilipucji, którzy otwierają jajka od większego końca, częściej mają adresy pocztowe z tym kodem pocztowym niż mieszkańcy Lilipucji, którzy otwierają jajka od mniejszego końca, ten algorytm może mieć nieproporcjonalny wpływ.

Kontrastuje to z nierównym traktowaniem, które koncentruje się na różnicach wynikających z tego, że charakterystyki podgrup są jawnymi danymi wejściowymi w procesie podejmowania decyzji przez algorytm.

nierówne traktowanie,

#responsible

Uwzględnianie atrybutów wrażliwych osób, których dotyczą dane, w procesie podejmowania decyzji przez algorytm w taki sposób, że różne podgrupy osób są traktowane odmiennie.

Rozważmy na przykład algorytm, który określa, czy Liliputanie kwalifikują się do otrzymania pożyczki na miniaturowy dom na podstawie danych podanych we wniosku o pożyczkę. Jeśli algorytm wykorzystuje przynależność do Lilliputian jako Big-Endian lub Little-Endian jako dane wejściowe, stosuje nierówne traktowanie w tym wymiarze.

Kontrastuje to z nieproporcjonalnym wpływem, który koncentruje się na różnicach w społecznym wpływie decyzji algorytmicznych na podgrupy, niezależnie od tego, czy te podgrupy są danymi wejściowymi modelu.

E

równość szans,

#responsible
#Dane

Wskaźnik sprawiedliwości, który pozwala ocenić, czy model prognozuje pożądany wynik równie dobrze dla wszystkich wartości wrażliwego atrybutu. Inaczej mówiąc, jeśli pożądanym wynikiem modelu jest klasa pozytywna, celem jest uzyskanie takiej samej liczby prawdziwie pozytywnych wyników dla wszystkich grup.

Równość szans jest związana z wyrównaniem szans, co wymaga, aby zarówno współczynniki wyników prawdziwie pozytywnych, jak i współczynniki wyników fałszywie pozytywnych były takie same dla wszystkich grup.

Załóżmy, że Uniwersytet Glubbdubdrib przyjmuje do wymagającego programu matematycznego zarówno Liliputów, jak i Brobdingnagów. Szkoły średnie w Lillipucie oferują rozbudowany program nauczania matematyki, a większość uczniów kwalifikuje się do programu uniwersyteckiego. W szkołach średnich Brobdingnagian nie ma zajęć z matematyki, w związku z czym znacznie mniej uczniów ma odpowiednie kwalifikacje. Równość szans jest zachowana w przypadku preferowanej etykiety „przyjęty” w odniesieniu do narodowości (Liliput lub Brobdingnag), jeśli kwalifikujący się uczniowie mają takie samo prawdopodobieństwo przyjęcia niezależnie od tego, czy są Liliputami, czy Brobdingnagami.

Załóżmy na przykład, że na Uniwersytet Glubbdubdrib zgłasza się 100 Liliputów i 100 Brobdingnagów, a decyzje o przyjęciu są podejmowane w ten sposób:

Tabela 1. Kandydaci z Lilliput (90% z nich spełnia wymagania)

  Zakwalifikowany Niezakwalifikowany
Przyjęto 45 3
Odrzucono 45 7
Łącznie 90 10
Odsetek przyjętych uczniów spełniających kryteria: 45/90 = 50%
Odsetek odrzuconych uczniów niespełniających kryteriów: 7/10 = 70%
Łączny odsetek przyjętych uczniów z Lilliputu: (45+3)/100 = 48%

 

Tabela 2. Kandydaci z Brobdingnagu (10% – kwalifikujący się):

  Zakwalifikowany Niezakwalifikowany
Przyjęto 5 9
Odrzucono 5 81
Łącznie 10 90
Odsetek przyjętych uczniów spełniających kryteria: 5/10 = 50%
Odsetek odrzuconych uczniów niespełniających kryteriów: 81/90 = 90%
Łączny odsetek przyjętych uczniów z Brobdingnagu: (5+9)/100 = 14%

Powyższe przykłady spełniają warunek równości szans w przypadku przyjęcia wykwalifikowanych uczniów, ponieważ wykwalifikowani Liliputanie i Brobdingnagianie mają 50% szans na przyjęcie.

Chociaż równość szans jest spełniona, te 2 kryteria obiektywności nie są spełnione:

  • parytet demograficzny: Liliputanie i Brobdingnagianie są przyjmowani na uniwersytet w różnym tempie; 48% uczniów z Liliputu jest przyjmowanych, ale tylko 14% uczniów z Brobdingnagu.
  • Równe szanse: chociaż kwalifikujący się uczniowie z Lilliputu i Brobdingnagu mają takie same szanse na przyjęcie, dodatkowe ograniczenie, że niekwalifikujący się uczniowie z Lilliputu i Brobdingnagu mają takie same szanse na odrzucenie, nie jest spełnione. W przypadku osób niekwalifikujących się do kategorii Liliputów odsetek odrzuceń wynosi 70%, a w przypadku osób niekwalifikujących się do kategorii Brobdingnagów – 90%.

Więcej informacji znajdziesz w sekcji Sprawiedliwość: równość szans w Szybkim szkoleniu z uczenia maszynowego.

wyrównane szanse

#responsible
#Dane

Wskaźnik sprawiedliwości, który pozwala ocenić, czy model prognozuje wyniki równie dobrze dla wszystkich wartości wrażliwego atrybutu w odniesieniu do klasy pozytywnejklasy negatywnej, a nie tylko jednej z nich. Innymi słowy, zarówno współczynnik wyników prawdziwie dodatnich, jak i współczynnik wyników fałszywie ujemnych powinny być takie same w przypadku wszystkich grup.

Wyrównane szanse są powiązane z równością szans, która koncentruje się tylko na odsetku błędów w przypadku jednej klasy (pozytywnej lub negatywnej).

Załóżmy na przykład, że Uniwersytet Glubbdubdrib przyjmuje do wymagającego programu matematycznego zarówno Liliputów, jak i Brobdingnagów. Szkoły średnie w Lilliput oferują bogaty program nauczania matematyki, a większość uczniów kwalifikuje się do programu uniwersyteckiego. W szkołach średnich w Brobdingnagu nie ma zajęć z matematyki, więc znacznie mniej uczniów ma odpowiednie kwalifikacje. Warunek wyrównanych szans jest spełniony, jeśli niezależnie od tego, czy kandydat jest Liliputem, czy Brobdingnagiem, jeśli ma odpowiednie kwalifikacje, ma takie samo prawdopodobieństwo przyjęcia do programu, a jeśli nie ma odpowiednich kwalifikacji, ma takie samo prawdopodobieństwo odrzucenia.

Załóżmy, że na Uniwersytet Glubbdubdrib zgłasza się 100 Liliputów i 100 Brobdingnagów, a decyzje o przyjęciu są podejmowane w ten sposób:

Tabela 3. Kandydaci z Lilliput (90% z nich spełnia wymagania)

  Zakwalifikowany Niezakwalifikowany
Przyjęto 45 2
Odrzucono 45 8
Łącznie 90 10
Odsetek przyjętych uczniów spełniających kryteria: 45/90 = 50%
Odsetek odrzuconych uczniów niespełniających kryteriów: 8/10 = 80%
Łączny odsetek przyjętych uczniów z Lilliputu: (45+2)/100 = 47%

 

Tabela 4. Kandydaci z Brobdingnagu (10% – kwalifikujący się):

  Zakwalifikowany Niezakwalifikowany
Przyjęto 5 18
Odrzucono 5 72
Łącznie 10 90
Odsetek przyjętych uczniów spełniających kryteria: 5/10 = 50%
Odsetek odrzuconych uczniów niespełniających kryteriów: 72/90 = 80%
Łączny odsetek przyjętych uczniów z Brobdingnagu: (5+18)/100 = 23%

Warunek wyrównanych szans jest spełniony, ponieważ kwalifikujący się studenci z Lilliputu i Brobdingnagu mają 50% szans na przyjęcie, a niekwalifikujący się studenci z Lilliputu i Brobdingnagu mają 80% szans na odrzucenie.

Wyrównane szanse są formalnie zdefiniowane w artykule „Equality of Opportunity in Supervised Learning” w ten sposób: „predyktor Ŷ spełnia warunek wyrównanych szans w odniesieniu do atrybutu chronionego A i wyniku Y, jeśli Ŷ i A są niezależne pod warunkiem Y”.

błąd eksperymentatora

#responsible

Zobacz efekt potwierdzenia.

P

ograniczenie obiektywności

#responsible
Stosowanie ograniczenia w algorytmie, aby zapewnić spełnienie co najmniej jednej definicji obiektywności. Przykłady ograniczeń związanych z uczciwością:

wskaźnik obiektywności,

#responsible
#Dane

Matematyczna definicja „obiektywności”, którą można zmierzyć. Do najczęściej używanych wskaźników sprawiedliwości należą:

Wiele wskaźników obiektywności wzajemnie się wyklucza. Więcej informacji znajdziesz w sekcji Brak spójnych wskaźników obiektywności.

G

błąd uogólnienia,

#responsible

Zakładanie, że to, co dotyczy jednej osoby, dotyczy też wszystkich członków danej grupy. Skutki błędu atrybucji grupowej mogą się nasilić, jeśli do zbierania danych zostanie użyte próbkowanie wygodne. W przypadku próby niereprezentatywnej atrybucje mogą nie odzwierciedlać rzeczywistości.

Zobacz też błąd jednorodności grupy obcejstronniczość wewnątrzgrupową. Więcej informacji znajdziesz też w artykule Sprawiedliwość: rodzaje odchyleń w kursie Machine Learning Crash Course.

H

obciążenie historyczne,

#responsible

Rodzaj obciążenia, które już istnieje w świecie i zostało uwzględnione w zbiorze danych. Te uprzedzenia odzwierciedlają istniejące stereotypy kulturowe, nierówności demograficzne i uprzedzenia wobec określonych grup społecznych.

Rozważmy na przykład model klasyfikacji, który przewiduje, czy wnioskodawca nie spłaci pożyczki. Model ten został wytrenowany na podstawie danych historycznych dotyczących niespłaconych pożyczek z lat 80. XX wieku, pochodzących z lokalnych banków w 2 różnych społecznościach. Jeśli w przeszłości wnioskodawcy ze społeczności A byli 6 razy bardziej narażeni na niewywiązanie się ze spłaty pożyczki niż wnioskodawcy ze społeczności B, model może nauczyć się historycznego obciążenia, co spowoduje, że będzie mniej skłonny do zatwierdzania pożyczek w społeczności A, nawet jeśli historyczne warunki, które spowodowały wyższe wskaźniki niewywiązania się ze spłaty w tej społeczności, nie będą już miały znaczenia.

Więcej informacji znajdziesz w module Sprawiedliwość: rodzaje odchyleń w kursie Machine Learning Crash Course.

I

nieświadome uprzedzenia

#responsible

Automatyczne tworzenie powiązań lub założeń na podstawie modeli mentalnych i wspomnień. Uprzedzenia ukryte mogą wpływać na:

  • Jak dane są zbierane i klasyfikowane.
  • Jak projektowane i opracowywane są systemy uczące się.

Na przykład podczas tworzenia modelu klasyfikacji do rozpoznawania zdjęć ślubnych inżynier może użyć obecności białej sukni na zdjęciu jako cechy. Białe suknie były jednak zwyczajowe tylko w określonych epokach i w określonych kulturach.

Zobacz też błąd potwierdzenia.

brak spójnych wskaźników obiektywności,

#responsible
#Dane

Koncepcja, że niektóre pojęcia obiektywności są wzajemnie niekompatybilne i nie można ich spełnić jednocześnie. Dlatego nie ma jednego uniwersalnego wskaźnika, który można by zastosować do wszystkich problemów związanych z uczeniem maszynowym.

Może to zniechęcać, ale brak spójnych wskaźników obiektywności nie oznacza, że działania na rzecz obiektywności są bezcelowe. Zamiast tego sugeruje, że obiektywność musi być definiowana w kontekście danego problemu ML, aby zapobiegać szkodom związanym z jego przypadkami użycia.

Więcej informacji o braku spójnych wskaźników obiektywności znajdziesz w artykule „(Nie)możliwość obiektywności”.

sprawiedliwość indywidualna,

#responsible
#Dane

Miara sprawiedliwości, która sprawdza, czy podobne osoby są klasyfikowane w podobny sposób. Na przykład Akademia Brobdingnagian może chcieć spełnić kryterium sprawiedliwości indywidualnej, zapewniając, że dwóch uczniów z identycznymi ocenami i wynikami testów standaryzowanych ma takie samo prawdopodobieństwo przyjęcia.

Pamiętaj, że sprawiedliwość indywidualna zależy całkowicie od tego, jak zdefiniujesz „podobieństwo” (w tym przypadku oceny i wyniki testów). Jeśli wskaźnik podobieństwa nie uwzględnia ważnych informacji (np. poziomu trudności programu nauczania), możesz wprowadzić nowe problemy związane ze sprawiedliwością.

Więcej informacji o sprawiedliwości indywidualnej znajdziesz w artykule „Fairness Through Awareness”.

stronniczość wewnątrzgrupowa,

#responsible

Faworyzowanie własnej grupy lub własnych cech. Jeśli testerami lub oceniającymi są znajomi, rodzina lub współpracownicy dewelopera uczenia maszynowego, może to spowodować błąd związany z przynależnością do grupy, który unieważni testowanie produktu lub zbiór danych.

Stronniczość wewnątrzgrupowa jest formą błędu uogólnienia. Zobacz też błąd jednorodności grupy obcej.

Więcej informacji znajdziesz w sekcji Sprawiedliwość: rodzaje odchyleń w kursie Machine Learning Crash Course.

N

błąd braku odpowiedzi,

#responsible

Zobacz błąd doboru.

O

błąd jednorodności grupy obcej,

#responsible

Tendencja do postrzegania członków grupy obcej jako bardziej podobnych do siebie niż członków grupy własnej podczas porównywania postaw, wartości, cech osobowości i innych charakterystyk. Grupa własna to osoby, z którymi regularnie się kontaktujesz; grupa obca to osoby, z którymi nie kontaktujesz się regularnie. Jeśli poprosisz osoby o podanie atrybutów dotyczących grup zewnętrznych, mogą one być mniej zniuansowane i bardziej stereotypowe niż atrybuty, które uczestnicy wymieniają w przypadku osób z ich grupy wewnętrznej.

Na przykład Lilipuci mogą szczegółowo opisywać domy innych Liliputów, podając niewielkie różnice w stylach architektonicznych, oknach, drzwiach i rozmiarach. Jednak ci sami Lilipuci mogą po prostu stwierdzić, że wszyscy Brobdingnagowie mieszkają w identycznych domach.

Błąd jednorodności grupy obcej to forma błędu uogólnienia.

Zobacz też stronniczość wewnątrzgrupową.

P

błąd związany z udziałem w badaniu

#responsible

Synonim błędu braku odpowiedzi. Zobacz błąd doboru.

przetwarzanie końcowe,

#responsible
#fundamentals

Dostosowywanie danych wyjściowych modelu po jego uruchomieniu. Przetwarzanie końcowe może służyć do egzekwowania ograniczeń dotyczących sprawiedliwości bez modyfikowania samych modeli.

Na przykład można zastosować przetwarzanie końcowe w przypadku modelu klasyfikacji binarnej, ustawiając próg klasyfikacji w taki sposób, aby równość szans była zachowana w przypadku danego atrybutu. W tym celu należy sprawdzić, czy odsetek prawdziwie pozytywnych wyników jest taki sam dla wszystkich wartości tego atrybutu.

równość prognoz

#responsible
#Dane

Wskaźnik obiektywności, który sprawdza, czy w przypadku danego modelu klasyfikacji wartości precyzji są równoważne w przypadku rozpatrywanych podgrup.

Na przykład model, który przewiduje przyjęcie do college'u, spełniałby warunek równości predykcyjnej w przypadku narodowości, gdyby jego wskaźnik precyzji był taki sam w przypadku Liliputów i Brobdingnagów.

Równość cen prognozowanych jest czasami nazywana równością cen prognozowanych.

Więcej informacji o równości predykcyjnej znajdziesz w sekcji 3.2.1 artykułu „Wyjaśnienie definicji sprawiedliwości”.

prognozowana równość cen

#responsible
#Dane

Inna nazwa równości predykcyjnej.

przetwarzanie wstępne,

#responsible
przetwarzanie danych przed użyciem ich do trenowania modelu; Wstępne przetwarzanie może być tak proste, jak usunięcie z korpusu tekstów w języku angielskim słów, które nie występują w słowniku angielskim, lub tak złożone, jak przekształcenie punktów danych w taki sposób, aby wyeliminować jak najwięcej atrybutów skorelowanych z atrybutami związanymi z informacjami o charakterze poufnym. Przetwarzanie wstępne może pomóc w spełnieniu ograniczeń obiektywności.

proxy (atrybuty wrażliwe)

#responsible
Atrybut używany jako zamiennik atrybutu związanego z informacjami o charakterze poufnym. Na przykład kod pocztowy osoby może być używany jako przybliżone określenie jej dochodów, rasy lub pochodzenia etnicznego.

R

błąd raportowania,

#responsible

Fakt, że częstotliwość, z jaką ludzie piszą o działaniach, wynikach lub właściwościach, nie odzwierciedla ich rzeczywistej częstotliwości występowania ani stopnia, w jakim dana właściwość jest charakterystyczna dla klasy osób. Błąd raportowania może wpływać na skład danych, na podstawie których uczą się systemy uczenia maszynowego.

Na przykład w książkach słowo śmiał się występuje częściej niż oddychał. Model uczenia maszynowego, który szacuje względną częstotliwość śmiechu i oddechu na podstawie korpusu książek, prawdopodobnie uzna, że śmiech występuje częściej niż oddech.

Więcej informacji znajdziesz w module Sprawiedliwość: rodzaje odchyleń w kursie Machine Learning Crash Course.

S

błąd próbkowania,

#responsible

Zobacz błąd doboru.

błąd doboru,

#responsible

Błędy w wyciąganych z danych próbkowanych wnioskach spowodowane procesem selekcji, który generuje systematyczne różnice między próbkami zaobserwowanymi w danych a tymi, które nie zostały zaobserwowane. Wyróżniamy te formy błędu doboru:

  • Błąd pokrycia: populacja reprezentowana w zbiorze danych nie odpowiada populacji, dla której model uczenia maszynowego dokonuje prognoz.
  • Błąd próbkowania: dane nie są zbierane losowo z grupy docelowej.
  • Błąd braku odpowiedzi (nazywany też błędem uczestnictwa): użytkownicy z określonych grup rezygnują z udziału w ankietach w różnym stopniu niż użytkownicy z innych grup.

Załóżmy na przykład, że tworzysz model uczenia maszynowego, który przewiduje, czy dana osoba będzie zadowolona z filmu. Aby zebrać dane treningowe, rozdajesz ankiety wszystkim osobom w pierwszym rzędzie w kinie, w którym wyświetlany jest film. Na pierwszy rzut oka może się to wydawać rozsądnym sposobem na zebranie zbioru danych, ale ta forma zbierania danych może wprowadzić następujące rodzaje błędu doboru:

  • błąd pokrycia: próbkowanie z populacji, która zdecydowała się obejrzeć film, może sprawić, że prognozy modelu nie będą uogólnione na osoby, które nie wyraziły jeszcze takiego poziomu zainteresowania filmem;
  • błąd próbkowania: zamiast losowo wybrać próbę z docelowej populacji (wszystkich osób w kinie), wybrano tylko osoby w pierwszym rzędzie. Możliwe, że osoby siedzące w pierwszym rzędzie były bardziej zainteresowane filmem niż osoby w innych rzędach.
  • błąd braku odpowiedzi: osoby o wyrazistych poglądach częściej odpowiadają na ankiety opcjonalne niż osoby o poglądach umiarkowanych. Ankieta dotycząca filmu jest opcjonalna, więc odpowiedzi będą raczej tworzyć rozkład dwumodalny niż rozkład normalny (w kształcie dzwonu).

atrybut wrażliwy

#responsible
Atrybut człowieka, który może wymagać szczególnej rozwagi z przyczyn prawnych, etycznych, społecznych lub osobistych.

U

nieświadomość (w odniesieniu do atrybutu wrażliwego),

#responsible

Sytuacja, w której atrybuty wrażliwe są obecne, ale nie są uwzględnione w danych treningowych. Ponieważ atrybuty wrażliwe są często skorelowane z innymi atrybutami danych, model wytrenowany bez uwzględnienia atrybutu wrażliwego może nadal mieć nierówny wpływ w odniesieniu do tego atrybutu lub naruszać inne ograniczenia dotyczące sprawiedliwości.