Entscheidungswald ist eine allgemeine Bezeichnung für Modelle aus mehreren Entscheidungsbäumen. Die Vorhersage einer Entscheidungsstruktur ist die Zusammenfassung der Vorhersagen ihrer Entscheidungsbäume. Die Implementierung dieser Aggregation hängt von dem Algorithmus ab, der zum Trainieren des Entscheidungswaldes verwendet wird. Bei einer zufälligen Gesamtstruktur mit mehreren Klassen (einer Art von Entscheidungswald) stimmt beispielsweise jeder Baum für eine einzelne Klasse und die Vorhersage der zufälligen Gesamtstruktur ist die am meisten vertretene Klasse. Bei einem binären Klassifizierungs-Boosted Tree (GBT) (einem anderen Typ von Entscheidungsstrukturen) gibt jeder Baum ein Logit (einen Gleitkommawert) aus und die Boosted Tree-Vorhersage für den Gradienten ist die Summe dieser Werte, gefolgt von einer Aktivierungsfunktion (z.B. Sigmoid).
In den nächsten beiden Kapiteln werden diese beiden Algorithmen für Entscheidungsforen ausführlicher beschrieben.