Entscheidungsbäume: Wissen testen

Auf dieser Seite können Sie eine Reihe von Multiple-Choice-Übungen zum Material aus dem Abschnitt „Entscheidungsbäume trainieren“ absolvieren.

Frage 1

Was sind die Auswirkungen, wenn die numerischen Features durch ihre negativen Werte ersetzt werden (z. B. der Wert +8 in -8)?
Die Struktur des Entscheidungsbaums ist dann völlig anders.
Es werden unterschiedliche Bedingungen gelernt, die Gesamtstruktur des Entscheidungsbaums bleibt jedoch gleich.
Es werden dieselben Bedingungen gelernt, nur die positiven/negativen untergeordneten Elemente werden ausgetauscht.

Frage 2

Welche beiden Antworten beschreiben am besten die Auswirkungen des Testens von nur der Hälfte (zufällig ausgewählt) der Kandidatengrenzwerte in X?
Der Informationsgewinn wäre höher oder gleich.
Der endgültige Entscheidungsbaum hätte eine schlechtere Testgenauigkeit.
Der endgültige Entscheidungsbaum hätte keine bessere Trainingsgenauigkeit.
Der Informationsgewinn wäre niedriger oder gleich.

Frage 3

Was würde passieren, wenn die Kurve „Informationsgewinn“ im Vergleich zu „Grenzwert“ mehrere lokale Maxima hätte?
Der Algorithmus würde das globale Maximum auswählen.
Es ist unmöglich, mehrere lokale Maxima zu haben.
Der Algorithmus würde die lokalen Maxima mit dem kleinsten Grenzwert auswählen.

Frage 4

Berechnen Sie den Informationsgewinn der folgenden Aufteilung:

Knoten Anzahl der positiven Beispiele Anzahl der Negativbeispiele
übergeordneter Knoten 10 6
Erstgeborenes Kind 8 2
zweites Kind 2 4
# Positive label distribution
p_parent = 10 / (10+6) # = 0.625
p_child_1 = 8 / (8+2) # = 0.8
p_child_2 = 2 / (2+4) # = 0.3333333

# Entropy
h_parent = -p_parent * log(p_parent) - (1-p_parent) * log(1-p_parent) # = 0.6615632
h_child_1 = ... # = 0.5004024
h_child_2 = ... # = 0.6365142

# Ratio of example in the child 1
s = (8+2)/(10+6)
f_final = s * h_child_1 + (1-s) * h_child_2 # = 0.5514443

information_gain = h_parent - f_final # = 0.1101189