Modele systemów uczących się nie są z natury obiektywne. Specjaliści ML trenowanie modeli przez dostarczanie im zbioru danych z przykładami treningowymi, zaangażowanie w udostępnianie i selekcję tych danych może sprawić, że model prognozy podatne na uprzedzenia.
Podczas tworzenia modeli ważne jest, aby mieć świadomość ludzkich uprzedzeń, które mogą w swoich danych i podejmować działania, aby zniwelować wpływ efekty.
Błąd raportowania
-
Definicja
Błąd raportowania występuje, gdy częstotliwość zdarzeń, właściwości i/lub wyników zarejestrowanych w zbiorze danych dokładnie odzwierciedlają ich rzeczywistą częstotliwość. Może się to wiązać ponieważ ludzie zwykle skupiają się na dokumentowaniu okoliczności, które nietypowych lub szczególnie zapadających w pamięć, zakładając, że zwykłe nie wymagają nagrywania.
-
Przykład
Model analizy nastawienia jest trenowany do przewidywania, czy książka opinie są pozytywne lub negatywne na podstawie zbioru użytkowników; do popularnej witryny. Większość opinii w zbiór danych treningowych odzwierciedla skrajne opinie (opinie recenzentów, którzy uwielbiają lub nienawidzili książki), ponieważ rzadziej ją przesyłali. recenzję książki, jeśli nie zareagowała zdecydowanie na nią. Jako model nie jest w stanie poprawnie przewidzieć nastawienia używając bardziej subtelnego języka.
Kliknij chevron_left, aby wyświetlić definicję.
Tendencyjność historyczna
-
Definicja
Błąd historyczny występuje, gdy dane historyczne i odzwierciedla nierówności, które istniały w tamtych czasach.
-
Przykład
Zbiór danych o budynkach z lat 60. XX wieku zawiera dane o cenach nieruchomości odzwierciedlający wartość dyskryminujących praktyki kredytowe, które będą obowiązywać dekadę.
Kliknij chevron_left, aby wyświetlić definicję.
Błąd automatyzacji
-
Definicja
Błąd automatyzacji to tendencja do faworyzowania wyników. generowane przez systemy automatyczne w porównaniu z automatycznymi niezależnie od odsetka błędów w każdym z nich.
-
Przykład
Specjaliści systemów uczących się pracujący dla producenta zębków chcieli wdrożyć nowy „przełom” model wytrenowany do identyfikacji wad zębów do czasu, aż inspektor fabryki wskazał, że współczynniki precyzji i czułości modelu były o 15% niższe od ludzkich inspektorów.
Kliknij chevron_left, aby wyświetlić definicję.
Korekta wyboru
Błąd doboru występuje, jeśli przykłady w zbiorach danych są wybierane w sposób, który nie odzwierciedla ich rzeczywistej dystrybucji. Błąd wyboru może przybierać różne formy, łącznie z stronniczością pokrycia, brakiem odpowiedzi i błędem próbkowania.
Błąd pokrycia
-
Definicja
Błąd odchylenia występuje, jeśli dane nie są wybrane w w sposób reprezentatywny.
-
Przykład
Model jest wytrenowany tak, aby prognozował przyszłą sprzedaż nowego produktu na podstawie w ankietach telefonicznych na grupie konsumentów, którzy kupili poszczególnych usług. Klienci, którzy zamiast tego zdecydowali się na zakup produktu konkurencyjnego nie było ankietowanych, w związku z czym ta grupa osób nie w danych treningowych.
Kliknij chevron_left, aby wyświetlić definicję.
Korekta braku odpowiedzi
-
Definicja
Błąd uwidoczniania bez odpowiedzi (określany również jako odchylenie uczestnictwa) zachodzi, jeśli dane ostatecznie niereprezentatywny ze względu na luki w uczestnictwie w zbieraniu danych proces tworzenia konta.
-
Przykład
Model jest wytrenowany tak, aby prognozował przyszłą sprzedaż nowego produktu na podstawie w ankietach telefonicznych na grupie konsumentów, którzy kupili produktu oraz z grupą konsumentów, którzy kupili konkurencyjny produkt usługi. Konsumenci, którzy kupili produkt konkurencyjny, byli o 80% więcej odmówili udziału w ankiecie, a ich dane zostały niedostatecznie reprezentowanych w próbie.
Kliknij chevron_left, aby wyświetlić definicję.
Błąd próbkowania
-
Definicja
Błąd próbkowania występuje, jeśli jest włączona prawidłowa randomizacja nie są wykorzystywane podczas zbierania danych.
-
Przykład
Model jest wytrenowany tak, aby prognozował przyszłą sprzedaż nowego produktu na podstawie w ankietach telefonicznych na grupie konsumentów, którzy kupili produktu oraz z grupą konsumentów, którzy kupili konkurencyjny produkt usługi. Zamiast losowo kierować reklamy na konsumentów, wybrać pierwszych 200 konsumentów, którzy odpowiedzieli na e-maila, którzy wykazali się większym entuzjazmem niż przeciętna nabywców.
Kliknij chevron_left, aby wyświetlić definicję.
Błąd atrybucji grupy
Błąd uogólnienia jest to tendencja do uogólniania całej grupy, że to, co dotyczy poszczególnych osób, których należą. Błąd atrybucji grupowej często przejawia się w 2 następujących kwestiach: formularzami.
Stronniczość wewnątrzgrupowa
-
Definicja
Tendencyjność w grupie jest preferowana przez członków do własnej grupy też do Ciebie należy lub ze względu na cechy które też udostępniacie.
-
Przykład
Dwóch specjalistów ds. systemów uczących się trenuje model przesiewowy CV programiści są gotowi sądzić, że kandydaci którzy chodzili do tej samej akademii informatycznej co oni są bardziej kwalifikowani do danego stanowiska.
Kliknij chevron_left, aby wyświetlić definicję.
Błąd jednorodności grupy obcej
-
Definicja
Błąd uogólnienia to tendencja do stereotypów dla poszczególnych członków grupy, do których nie chcesz lub postrzeganie ich cech jako bardziej jednolitych.
-
Przykład
Dwóch specjalistów ds. systemów uczących się trenuje model przesiewowy CV programiści są gotowi sądzić, że wszyscy kandydaci którzy nie uczestniczyli w akademii informatycznej, wystarczającej wiedzy specjalistycznej na tym stanowisku.
Kliknij chevron_left, aby wyświetlić definicję.
Uprzedzenia ogólne
-
Definicja
Nieświadome uprzedzenia występują, gdy przyjmujemy założenia na podstawie własnego modelu myślenia i osobistych doświadczeń, nie muszą być stosowane bardziej ogólnie.
-
Przykład
Specjalista ML trenuje model rozpoznawania gestów z wykorzystaniem Potrząśnij głową jako funkcja wskazująca, że dana osoba wypowiada słowo „nie”. Jednak w niektórych regionach świata potrząśnięcie głową oznacza „tak”.
Kliknij chevron_left, aby wyświetlić definicję.
Błąd potwierdzenia
-
Definicja
Błąd potwierdzenia występuje, gdy kreatory modeli nieświadomie przetwarzać dane w sposób, który potwierdza istniejące przekonania i hipotezy.
-
Przykład
Specjalista ds. systemów uczących się tworzy model, który prognozuje agresję u psów na podstawie różnych cech (wzrostu, wagi, rasy, ). Specjalista miał nieprzyjemne spotkanie z nadpobudliwym pudelem-zabawkami w dzieciństwie i od tego czasu tego rasy z agresją. Podczas selekcjonowania danych treningowych modelu nieświadomie porzucone funkcje, u małych psów dowody na tolerancję psa.
Kliknij chevron_left, aby wyświetlić definicję.
Wpływ eksperymentu
-
Definicja
Błąd eksperymentowania występuje, gdy konstruktor modeli trenuje model, dopóki nie da wyniku, który będzie zgodny z swoją pierwotną hipotezę.
-
Przykład
Specjalista ds. systemów uczących się tworzy model, który prognozuje agresję u psów na podstawie różnych cech (wzrostu, wagi, rasy, ). Specjalista miał nieprzyjemne spotkanie z nadpobudliwym pudelem-zabawkami w dzieciństwie i od tego czasu tego rasy z agresją. Gdy wytrenowany model prognozuje najbardziej pudelki, aby były stosunkowo łagodne, model jeszcze kilka razy, aż ukaże się wynik, niż pudle, aby być bardziej brutalne.
Kliknij chevron_left, aby wyświetlić definicję.