Decision Forest
「決策樹」是一種一般字詞,用來描述由多個決策樹建構的模型。決策樹的預測是決策樹狀結構的預測匯總。這項匯總功能的實作方式取決於訓練決策森林時採用的演算法。例如,在多類別分類隨機森林 (一種決策森林) 中,每個樹狀結構都會針對單一類別進行投票,而隨機森林預測則為代表的類別。在二進位分類梯度提升樹狀結構 (GBT) (另一種類型的決策森林) 中,每個樹狀結構都會輸出一個 logit (浮點值),而梯度增強樹狀結構預測值加上這些值之後的總和 (例如 sigmoid)。
下一章將會說明這兩個決策森林演算法。
除非另有註明,否則本頁面中的內容是採用創用 CC 姓名標示 4.0 授權,程式碼範例則為阿帕契 2.0 授權。詳情請參閱《Google Developers 網站政策》。Java 是 Oracle 和/或其關聯企業的註冊商標。
上次更新時間:2022-09-27 (世界標準時間)。
[null,null,["上次更新時間:2022-09-27 (世界標準時間)。"],[[["Decision forests encompass models composed of multiple decision trees, with predictions derived from aggregating individual tree predictions."],["Prediction aggregation methods vary depending on the specific decision forest algorithm employed, such as voting in random forests or logit summation in gradient boosted trees."],["Random forests and gradient boosted trees are two primary examples of decision forest algorithms, each utilizing a unique approach to prediction aggregation."],["Upcoming chapters will delve deeper into the workings of random forests and gradient boosted trees."]]],[]]