Drzewa decyzyjne: sprawdź swoją wiedzę
Na tej stronie znajdziesz serię ćwiczeń polegających na udzielaniu odpowiedzi na pytania jednokrotnego wyboru dotyczących materiału omówionego w jednostce „Trening schematów decyzyjnych”.
Pytanie 1
Jakie są skutki zastąpienia cech liczbowych ich ujemnymi wartościami (np. zastąpienie wartości +8 wartością –8) za pomocą dokładnego rozdzielacza liczbowego?
Nauczy się on tych samych warunków, ale tylko pozytywne/negatywne dzieci zostaną przełączone.
Fantastycznie.
Struktura drzewa decyzyjnego będzie zupełnie inna.
Struktura drzewa decyzyjnego będzie w większości taka sama. Warunki jednak się zmienią.
Nauczy się ono nowych warunków, ale ogólna struktura drzewa decyzji pozostanie taka sama.
Jeśli funkcje ulegną zmianie, zmienią się też warunki.
Pytanie 2
Które 2 odpowiedzi najlepiej opisują efekt testowania tylko połowy (losowo wybranych) wartości progowych kandydatów w X?
Zysk informacji będzie mniejszy lub równy.
Dobra robota!
Ostateczne drzewo decyzyjne nie będzie miało lepszej dokładności uczenia się.
Dobra robota!
Zysk informacji będzie wyższy lub równy.
Ostateczne drzewo decyzyjne będzie miało gorszą dokładność testów.
Pytanie 3
Co by się stało, gdyby krzywa „wzrost informacji” w zależności od „progu” miała kilka lokalnych maksimów?
Nie można mieć wielu lokalnych maksimów.
Możliwe są liczne lokalne maksima.
Algorytm wybierze globalne maksimum.
Dobra robota!
Algorytm wybierze lokalne maksimum o najmniejszej wartości progowej.
Pytanie 4
Oblicz zysk informacyjny z tego podziału:
Węzeł | Liczba przykładów pozytywnych | Liczba przykładów naruszających zasady |
węzeł nadrzędny | 10 | 6 |
pierwszy element potomny | 8 | 2 |
drugie dziecko | 2 | 4 |
Aby zobaczyć odpowiedź, kliknij ikonę.
# Positive label distribution
p_parent = 10 / (10+6) # = 0.625
p_child_1 = 8 / (8+2) # = 0.8
p_child_2 = 2 / (2+4) # = 0.3333333
# Entropy
h_parent = -p_parent * log(p_parent) - (1-p_parent) * log(1-p_parent) # = 0.6615632
h_child_1 = ... # = 0.5004024
h_child_2 = ... # = 0.6365142
# Ratio of example in the child 1
s = (8+2)/(10+6)
f_final = s * h_child_1 + (1-s) * h_child_2 # = 0.5514443
information_gain = h_parent - f_final # = 0.1101189
O ile nie stwierdzono inaczej, treść tej strony jest objęta licencją Creative Commons – uznanie autorstwa 4.0, a fragmenty kodu są dostępne na licencji Apache 2.0. Szczegółowe informacje na ten temat zawierają zasady dotyczące witryny Google Developers. Java jest zastrzeżonym znakiem towarowym firmy Oracle i jej podmiotów stowarzyszonych.
Ostatnia aktualizacja: 2025-02-25 UTC.
[null,null,["Ostatnia aktualizacja: 2025-02-25 UTC."],[[["This webpage presents a series of multiple-choice exercises focused on evaluating your understanding of decision tree training concepts."],["The exercises cover topics such as the impact of feature manipulation on decision tree structure, the effects of altering threshold selection strategies, and the implications of multiple local maxima in information gain curves."],["One question requires calculating information gain using entropy and provided data, demonstrating the practical application of decision tree principles."]]],[]]