Inne tematy

W tej części omawiamy następujące tematy:

  • interpretowanie losowych lasów
  • trening losowego lasu
  • zalety i wady lasów losowych

Interpretacja lasów losowych

Lasy losowe są bardziej złożone do interpretacji niż drzewa decyzyjne. Losowe lasy zawierają drzewa decyzyjne wytrenowane z wytrenowaniem losowego szumu. Dlatego trudniej jest w zakresie struktury drzewa decyzyjnego. Możemy natomiast interpretować losowe modeli leśnych na kilka sposobów.

Jednym ze sposobów interpretacji losowego lasu jest po prostu wytrenowanie i interpretacja drzewo decyzyjne oparte na algorytmie CART. Ponieważ las losowy i CART są wytrenowane za pomocą tego samego podstawowego algorytmu, „mają ten sam widok globalny” z w gromadzeniu danych. Ta opcja sprawdza się w przypadku prostych zbiorów danych i pozwala zrozumieć ogólnej interpretacji modelu.

Znaczenie zmiennych jest też dobrą interpretowalnością jak ważna jest pokora. Na przykład w poniższej tabeli przedstawiono ranking zmiennej znaczenia różnych cech losowego modelu lasu wytrenowanego na Zbiór danych statystycznych (również znane jako Dla dorosłych).

Tabela 8. Zmienne znaczenie 14 różnych cech. .

Funkcja Wynik sumy Średni spadek dokładności Średni spadek AUC Średnia minimalna głębokość Liczba węzłów Średni spadek PR-AUC Num jako pierwiastek
związek

4203592.6

0,0045

0,0172

4970

57040

0,0093

1095

capital_gain

3363045.1

0,0199

0,0194

2,852

56468

0,0655

457

marital_status

3128996,3

0,0018

0,0230

6,633

52391

0,0107

750

wiek

2520658.8

0,0065

0,0074

4,969

356784

0,0033

200

education

2015905.4

0,0018

-0,0080

5,266

115751

-0,0129

205

zawód

1939409,3

0,0063

-0,0040

5.017

221935

-0,0060

62

education_num

1673648,4

0,0023

-0,0066

6,009

58303

-0,0080

197

fnlwgt

1564189,0

-0,0002

-0,0038

9,969

431987

-0,0049

0

hours_per_week

1333976,3

0,0030

0,0007

6,393

206526

-0,0031

20

capital_loss

866863.8

0,0060

0,0020

8,076

58531

0,0118

1

klasa robocza

644208.4

0,0025

-0,0019

9,898

132196

-0,0023

0

native_country

538841,2

0,0001

-0,0016

9,434

67211

-0,0058

0

seks

226049,3

0,0002

0,0002

10,911

37754

-0,0011

13

rasa

168180,9

-0,0006

-0,0004

11,571

42262

-0,0031

0

Jak widać, różne definicje ważności zmiennych mają różne skale. co może prowadzić do różnic w rankingu tych funkcji.

Zmienne znaczenia, które pochodzą ze struktury modelu (np. suma wynik, średnia minimalna głębokość, liczba węzłów i liczba pierwiastków z tabeli powyżej) są obliczane w podobny sposób dla drzew decyzyjnych (patrz sekcja „Koszyk | Zmienne znaczenie”) i losowe lasy.

znaczenie zmiennej permutacji (np. średnie obniżenie wartości {accuracy, auc, pr-auc} w tabeli powyżej) to miary niezależne od modelu, które można obliczyć na podstawie dowolnego modelu systemów uczących się ze zbiorem danych do weryfikacji. Z losowym lasem jednak zamiast używać zbioru danych do walidacji, możesz obliczyć permutację zmiennego znaczenia przy przeprowadzaniu oceny bezpośredniej.

SHAP (SHapley Additive exPlanations) to niewymagająca modelu metoda do wyjaśniają poszczególne prognozy lub interpretację na podstawie modelu. (Zobacz Interpretowalne systemy uczące się autorstwa Molnara jako wstępu do interpretacji niezależnej od modelu). SHAP to jest zwykle drogie w obliczeniach, ale może być przyspieszył znacznie proces podejmowania decyzji. dlatego dobrze jest interpretować lasy decyzyjne.

Przykład zastosowania

Na poprzedniej lekcji trenowaliśmy drzewo decyzyjne CART na małym zbiorze danych. dzwoniąc pod numer tfdf.keras.CartModel. Aby wytrenować losowy model lasu, po prostu zastąp tfdf.keras.CartModel elementem tfdf.keras.RandomForestModel:

model = tfdf.keras.RandomForestModel()
model.fit(tf_train_dataset)

Zalety i wady

Ta sekcja zawiera krótkie podsumowanie zalet i wad losowych lasów.

Zalety:

  • Podobnie jak drzewa decyzyjne, lasy losowe obsługują natywnie wartości liczbowe i cechuje się właściwościami kategorialnymi i często nie wymagają wstępnego przetwarzania cech.
  • Drzewa decyzyjne są niezależne, więc losowe lasy można trenować równoległe. Można szybko wytrenować losowe lasy.
  • Lasy losowe mają parametry domyślne, które często dają świetne wyniki. Dostrajanie te parametry często mają niewielki wpływ na model.

Wady:

  • Drzewa decyzyjne nie są przycinane, więc mogą być duże. Modele z większą liczbą więcej niż 1 mln węzłów jest wspólnych. Rozmiar (a tym samym szybkość wnioskowania) Czasami problemem jest losowy las.
  • Lasy losowe nie mogą uczyć się ani ponownie wykorzystywać wewnętrznych reprezentacji. Każdy drzewo decyzyjne (i każda gałąź każdego drzewa decyzyjnego) musi nauczyć się wzorcem zbioru danych. W niektórych zbiorach danych, zwłaszcza nietabelowych (np. obrazach, tekstu), powoduje to uzyskanie gorszych wyników w przypadku lasów losowych niż inne metody.