Entscheidungswälder
Entscheidungswald ist eine allgemeine Bezeichnung für Modelle aus mehreren Entscheidungsbäumen. Die Vorhersage einer Entscheidungsstruktur ist die Zusammenfassung der Vorhersagen ihrer Entscheidungsbäume. Die Implementierung dieser Aggregation hängt von dem Algorithmus ab, der zum Trainieren des Entscheidungswaldes verwendet wird. Bei einer zufälligen Gesamtstruktur mit mehreren Klassen (einer Art von Entscheidungswald) stimmt beispielsweise jeder Baum für eine einzelne Klasse und die Vorhersage der zufälligen Gesamtstruktur ist die am meisten vertretene Klasse. Bei einem binären Klassifizierungs-Boosted Tree (GBT) (einem anderen Typ von Entscheidungsstrukturen) gibt jeder Baum ein Logit (einen Gleitkommawert) aus und die Boosted Tree-Vorhersage für den Gradienten ist die Summe dieser Werte, gefolgt von einer Aktivierungsfunktion (z.B. Sigmoid).
In den nächsten beiden Kapiteln werden diese beiden Algorithmen für Entscheidungsforen ausführlicher beschrieben.
Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.
Zuletzt aktualisiert: 2022-09-27 (UTC).
[null,null,["Zuletzt aktualisiert: 2022-09-27 (UTC)."],[[["Decision forests encompass models composed of multiple decision trees, with predictions derived from aggregating individual tree predictions."],["Prediction aggregation methods vary depending on the specific decision forest algorithm employed, such as voting in random forests or logit summation in gradient boosted trees."],["Random forests and gradient boosted trees are two primary examples of decision forest algorithms, each utilizing a unique approach to prediction aggregation."],["Upcoming chapters will delve deeper into the workings of random forests and gradient boosted trees."]]],[]]