Entscheidungsbäume: Wissen testen
Auf dieser Seite können Sie eine Reihe von Multiple-Choice-Übungen zum Material aus dem Abschnitt „Entscheidungsbäume trainieren“ absolvieren.
Frage 1
Was sind die Auswirkungen, wenn die numerischen Features durch ihre negativen Werte ersetzt werden (z. B. der Wert +8 in -8)?
Die Struktur des Entscheidungsbaums ist dann völlig anders.
Die Struktur des Entscheidungsbaums bleibt im Grunde gleich. Die Bedingungen ändern sich jedoch.
Es werden unterschiedliche Bedingungen gelernt, die Gesamtstruktur des Entscheidungsbaums bleibt jedoch gleich.
Wenn sich die Funktionen ändern, ändern sich auch die Bedingungen.
Es werden dieselben Bedingungen gelernt, nur die positiven/negativen untergeordneten Elemente werden ausgetauscht.
Sehr gut.
Frage 2
Welche beiden Antworten beschreiben am besten die Auswirkungen des Testens von nur der Hälfte (zufällig ausgewählt) der Kandidatengrenzwerte in X?
Der Informationsgewinn wäre höher oder gleich.
Der endgültige Entscheidungsbaum hätte eine schlechtere Testgenauigkeit.
Der endgültige Entscheidungsbaum hätte keine bessere Trainingsgenauigkeit.
Gut gemacht!
Der Informationsgewinn wäre niedriger oder gleich.
Gut gemacht!
Frage 3
Was würde passieren, wenn die Kurve „Informationsgewinn“ im Vergleich zu „Grenzwert“ mehrere lokale Maxima hätte?
Der Algorithmus würde das globale Maximum auswählen.
Gut gemacht!
Es ist unmöglich, mehrere lokale Maxima zu haben.
Es sind mehrere lokale Maxima möglich.
Der Algorithmus würde die lokalen Maxima mit dem kleinsten Grenzwert auswählen.
Frage 4
Berechnen Sie den Informationsgewinn der folgenden Aufteilung:
Knoten | Anzahl der positiven Beispiele | Anzahl der Negativbeispiele |
übergeordneter Knoten | 10 | 6 |
Erstgeborenes Kind | 8 | 2 |
zweites Kind | 2 | 4 |
Klicken Sie auf das Symbol, um die Antwort zu sehen.
# Positive label distribution
p_parent = 10 / (10+6) # = 0.625
p_child_1 = 8 / (8+2) # = 0.8
p_child_2 = 2 / (2+4) # = 0.3333333
# Entropy
h_parent = -p_parent * log(p_parent) - (1-p_parent) * log(1-p_parent) # = 0.6615632
h_child_1 = ... # = 0.5004024
h_child_2 = ... # = 0.6365142
# Ratio of example in the child 1
s = (8+2)/(10+6)
f_final = s * h_child_1 + (1-s) * h_child_2 # = 0.5514443
information_gain = h_parent - f_final # = 0.1101189
Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.
Zuletzt aktualisiert: 2025-02-25 (UTC).
[null,null,["Zuletzt aktualisiert: 2025-02-25 (UTC)."],[[["This webpage presents a series of multiple-choice exercises focused on evaluating your understanding of decision tree training concepts."],["The exercises cover topics such as the impact of feature manipulation on decision tree structure, the effects of altering threshold selection strategies, and the implications of multiple local maxima in information gain curves."],["One question requires calculating information gain using entropy and provided data, demonstrating the practical application of decision tree principles."]]],[]]