Drzewa decyzyjne: sprawdź swoją wiedzę

Na tej stronie znajdziesz serię ćwiczeń polegających na udzielaniu odpowiedzi na pytania jednokrotnego wyboru dotyczących materiału omówionego w jednostce „Trening schematów decyzyjnych”.

Pytanie 1

Jakie są skutki zastąpienia cech liczbowych ich ujemnymi wartościami (np. zastąpienie wartości +8 wartością –8) za pomocą dokładnego rozdzielacza liczbowego?
Struktura drzewa decyzyjnego będzie zupełnie inna.
Nauczy się ono nowych warunków, ale ogólna struktura drzewa decyzji pozostanie taka sama.
Nauczy się on tych samych warunków, ale tylko pozytywne/negatywne dzieci zostaną przełączone.

Pytanie 2

Które 2 odpowiedzi najlepiej opisują efekt testowania tylko połowy (losowo wybranych) wartości progowych kandydatów w X?
Ostateczne drzewo decyzyjne nie będzie miało lepszej dokładności uczenia się.
Zysk informacji będzie wyższy lub równy.
Zysk informacji będzie mniejszy lub równy.
Ostateczne drzewo decyzyjne będzie miało gorszą dokładność testów.

Pytanie 3

Co by się stało, gdyby krzywa „wzrost informacji” w zależności od „progu” miała kilka lokalnych maksimów?
Algorytm wybierze lokalne maksimum o najmniejszej wartości progowej.
Algorytm wybierze globalne maksimum.
Nie można mieć wielu lokalnych maksimów.

Pytanie 4

Oblicz zysk informacyjny z tego podziału:

Węzeł Liczba przykładów pozytywnych Liczba przykładów naruszających zasady
węzeł nadrzędny 10 6
pierwszy element potomny 8 2
drugie dziecko 2 4
# Positive label distribution
p_parent = 10 / (10+6) # = 0.625
p_child_1 = 8 / (8+2) # = 0.8
p_child_2 = 2 / (2+4) # = 0.3333333

# Entropy
h_parent = -p_parent * log(p_parent) - (1-p_parent) * log(1-p_parent) # = 0.6615632
h_child_1 = ... # = 0.5004024
h_child_2 = ... # = 0.6365142

# Ratio of example in the child 1
s = (8+2)/(10+6)
f_final = s * h_child_1 + (1-s) * h_child_2 # = 0.5514443

information_gain = h_parent - f_final # = 0.1101189