Entscheidungswälder

Ein Entscheidungswald ist ein allgemeiner Begriff, der Modelle aus mehreren Entscheidungsbäumen beschreibt. Die Vorhersage eines Entscheidungswalds ist die Aggregation der Vorhersagen seiner Entscheidungsbäume. Die Implementierung dieser Aggregation hängt vom Algorithmus ab, der zum Trainieren des Entscheidungswalds verwendet wird. Bei einem Random Forest für die Mehrfachklassifizierung (eine Art Entscheidungswald) stimmt beispielsweise jeder Baum für eine einzelne Klasse. Die Random Forest-Vorhersage ist die am häufigsten vertretene Klasse. Bei einer binären Klassifizierung mit einem Gradient Boosted Tree (GBT, eine andere Art von Entscheidungswald) gibt jeder Baum einen Logit (einen Gleitkommawert) aus. Die Vorhersage des Gradient Boosted Tree ist die Summe dieser Werte, gefolgt von einer Aktivierungsfunktion (z. B. sigmoidal).

In den nächsten beiden Kapiteln werden diese beiden Algorithmen für Entscheidungsbäume ausführlich beschrieben.