Entscheidungswälder
Ein Entscheidungswald ist ein allgemeiner Begriff, der Modelle aus mehreren Entscheidungsbäumen beschreibt. Die Vorhersage eines Entscheidungswalds ist die Aggregation der Vorhersagen seiner Entscheidungsbäume. Die Implementierung dieser Aggregation hängt vom Algorithmus ab, der zum Trainieren des Entscheidungswalds verwendet wird. Bei einem Random Forest für die Mehrfachklassifizierung (eine Art Entscheidungswald) stimmt beispielsweise jeder Baum für eine einzelne Klasse. Die Random Forest-Vorhersage ist die am häufigsten vertretene Klasse. Bei einer binären Klassifizierung mit einem Gradient Boosted Tree (GBT, eine andere Art von Entscheidungswald) gibt jeder Baum einen Logit (einen Gleitkommawert) aus. Die Vorhersage des Gradient Boosted Tree ist die Summe dieser Werte, gefolgt von einer Aktivierungsfunktion (z. B. sigmoidal).
In den nächsten beiden Kapiteln werden diese beiden Algorithmen für Entscheidungsbäume ausführlich beschrieben.
Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.
Zuletzt aktualisiert: 2025-02-25 (UTC).
[null,null,["Zuletzt aktualisiert: 2025-02-25 (UTC)."],[[["Decision forests encompass models composed of multiple decision trees, with predictions derived from aggregating individual tree predictions."],["Prediction aggregation methods vary depending on the specific decision forest algorithm employed, such as voting in random forests or logit summation in gradient boosted trees."],["Random forests and gradient boosted trees are two primary examples of decision forest algorithms, each utilizing a unique approach to prediction aggregation."],["Upcoming chapters will delve deeper into the workings of random forests and gradient boosted trees."]]],[]]