Modele systemów uczących się nie są z natury obiektywne. Specjaliści ML trenowanie modeli przez dostarczanie im zbioru danych z przykładami treningowymi, zaangażowanie w udostępnianie i selekcję tych danych może sprawić, że model prognozy podatne na uprzedzenia.
Podczas tworzenia modeli ważne jest, aby mieć świadomość ludzkich uprzedzeń, które mogą w swoich danych i podejmować działania, aby zniwelować wpływ efekty.
Błąd raportowania
-
Definicja
Błąd wybiórczego raportowania występuje, gdy częstotliwość zdarzeń, właściwości lub wyników w zbiorze danych nie odzwierciedla ich rzeczywistej częstotliwości występowania. Może się to wiązać ponieważ ludzie zwykle skupiają się na dokumentowaniu okoliczności, które nietypowych lub szczególnie zapadających w pamięć, zakładając, że zwykłe nie wymagają nagrywania.
-
Przykład
Model analizy nastawienia jest trenowany do przewidywania, czy książka opinie są pozytywne lub negatywne na podstawie zbioru użytkowników; do popularnej witryny. Większość opinii w zbiór danych treningowych odzwierciedla skrajne opinie (opinie recenzentów, uwielbiają lub nienawidzili książki), ponieważ rzadziej ją przesyłali. recenzję książki, jeśli nie zareagowała zdecydowanie na nią. Jako model nie jest w stanie poprawnie przewidzieć nastawienia używając bardziej subtelnego języka.
Kliknij chevron_left, aby wyświetlić definicję.
Tendencyjność historyczna
-
Definicja
Błąd historyczny występuje, gdy dane historyczne i odzwierciedla nierówności, które istniały w tamtych czasach.
-
Przykład
Zbiór danych o budynkach z lat 60. XX wieku zawiera dane o cenach nieruchomości odzwierciedlający wartość dyskryminujących praktyki związane z udzielaniem pożyczek, obowiązujące w tym dekadę.
Kliknij chevron_left, aby wyświetlić definicję.
Błąd automatyzacji
-
Definicja
Błąd automatyzacji to tendencja do preferowania wyników generowanych przez systemy automatyczne w stosunku do tych generowanych przez systemy nieautomatyczne niezależnie od liczby błędów występujących w wynikach.
-
Przykład
Specjaliści systemów uczących się pracujący dla producenta zębków chcieli wdrożyć nowy „przełom” model wytrenowany do identyfikacji wad zębów do czasu, aż inspektor fabryki wskazał, że współczynniki precyzji i czułości modelu były o 15% niższe od ludzkich inspektorów.
Kliknij chevron_left, aby wyświetlić definicję.
Korekta wyboru
Błąd doboru występuje, jeśli przykłady w zbiorach danych są wybierane w sposób, który nie odzwierciedla ich rzeczywistej dystrybucji. Błąd wyboru może przybierać różne formy, łącznie z uprzedzeniami związanymi z zasięgiem, brakiem odpowiedzi i błędem próbkowania.
Błąd pokrycia
-
Definicja
Błąd odchylenia występuje, jeśli dane nie są wybrane w w sposób reprezentatywny.
-
Przykład
Model jest wytrenowany tak, aby prognozował przyszłą sprzedaż nowego produktu na podstawie w ankietach telefonicznych na grupie konsumentów, którzy kupili poszczególnych usług. Klienci, którzy zamiast tego zdecydowali się na zakup produktu konkurencyjnego nie było ankietowanych, w związku z czym ta grupa osób nie w danych treningowych.
Kliknij chevron_left, aby wyświetlić definicję.
Błąd związany z brakiem odpowiedzi
-
Definicja
Błąd uwidoczniania bez odpowiedzi (nazywany też błąd związany z uczestnictwem) zachodzi, jeśli dane ostatecznie niereprezentatywny ze względu na luki w uczestnictwie w zbieraniu danych proces tworzenia konta.
-
Przykład
Model jest wytrenowany tak, aby prognozował przyszłą sprzedaż nowego produktu na podstawie w ankietach telefonicznych na grupie konsumentów, którzy kupili produktu oraz z grupą konsumentów, którzy nabyli konkurencyjny usługi. Konsumenci, którzy kupili produkt konkurencyjny, byli o 80% bardziej skłonni do odmowy wypełnienia ankiety, a ich dane były w próbie niedostatecznie reprezentowane.
Kliknij chevron_left, aby wyświetlić definicję.
Błąd próbkowania
-
Definicja
Błąd próbkowania występuje, jeśli jest włączona prawidłowa randomizacja nie są wykorzystywane podczas zbierania danych.
-
Przykład
Model jest wytrenowany tak, aby prognozował przyszłą sprzedaż nowego produktu na podstawie w ankietach telefonicznych na grupie konsumentów, którzy kupili produktu oraz z grupą konsumentów, którzy nabyli konkurencyjny usługi. Zamiast losowo kierować reklamy na konsumentów, wybrać pierwszych 200 konsumentów, którzy odpowiedzieli na e-maila, którzy wykazali się większym entuzjazmem niż przeciętna nabywców.
Kliknij chevron_left, aby wyświetlić definicję.
Błąd atrybucji grupy
Błąd uogólnienia jest to tendencja do uogólniania całej grupy, że to, co dotyczy poszczególnych osób, należących do nich. Błąd uogólnienia występuje często w 2 postaciach:
Stronniczość wewnątrzgrupowa
-
Definicja
Tendencyjność w grupie jest preferowana przez członków do własnej grupy też do Ciebie należy lub ze względu na cechy które też udostępniacie.
-
Przykład
Dwóch specjalistów ds. systemów uczących się trenuje model przesiewowy CV programiści są gotowi sądzić, że kandydaci którzy chodzili do tej samej akademii informatycznej co oni są bardziej kwalifikowani do danego stanowiska.
Kliknij chevron_left, aby wyświetlić definicję.
Błąd jednorodności grupy obcej
-
Definicja
Błąd uogólnienia to tendencja do stereotypów dla poszczególnych członków grupy, do których nie chcesz lub postrzeganie ich cech jako bardziej jednolitych.
-
Przykład
Dwóch specjalistów zajmujących się uczeniem maszynowym, którzy trenują model do sprawdzania życiorysów kandydatów na stanowisko dewelopera oprogramowania, są przekonani, że wszyscy kandydaci, którzy nie ukończyli akademii informatycznej, nie mają wystarczającej wiedzy do pracy na tym stanowisku.
Kliknij chevron_left, aby wyświetlić definicję.
Uprzedzenia ogólne
-
Definicja
Nieświadome uprzedzenia występują, gdy przyjmujemy założenia na podstawie własnego modelu myślenia i osobistych doświadczeń, nie muszą być stosowane bardziej ogólnie.
-
Przykład
Specjalista ML trenuje model rozpoznawania gestów z wykorzystaniem Potrząśnij głową jako funkcja wskazująca, że dana osoba wypowiada słowo „nie”. Jednak w niektórych regionach świata potrząśnięcie głową oznacza „tak”.
Kliknij chevron_left, aby wyświetlić definicję.
Błąd potwierdzenia
-
Definicja
Efekt potwierdzenia występuje, gdy twórcy modelu nieświadomie przetwarzają dane w sposób, który potwierdza ich wcześniejsze przekonania i hipotezy.
-
Przykład
Specjalista ds. systemów uczących się tworzy model, który prognozuje agresję u psów na podstawie różnych cech (wzrostu, wagi, rasy, ). Jako dziecko miał nieprzyjemne spotkanie z nadpobudliwym pudlem miniaturowym i od tego czasu kojarzy tę rasę z agresją. Podczas tworzenia danych treningowych modelu praktyk nieświadomie odrzucił cechy, które wskazywały na łagodność u mniejszych psów.
Kliknij chevron_left, aby wyświetlić definicję.
Wpływ eksperymentu
-
Definicja
Błąd eksperymentatora występuje, gdy twórca modelu trenuje model tak długo, aż uzyska wynik zgodny ze swoimi pierwotnymi hipotezami.
-
Przykład
Specjalista ds. systemów uczących się tworzy model, który prognozuje agresję u psów na podstawie różnych cech (wzrostu, wagi, rasy, ). Specjalista miał nieprzyjemne spotkanie ze nadpobudliwym pudelem-zabawkami w dzieciństwie i od tego czasu tego rasy z agresją. Gdy wytrenowany model prognozuje najbardziej pudelki, aby były stosunkowo łagodne, model jeszcze kilka razy, aż ukaże się wynik, który pokazuje, niż pudle, aby być bardziej brutalne.
Kliknij chevron_left, aby wyświetlić definicję.