課程摘要
以下簡要說明您在課程中學到的內容:
- 決策樹是一種模型,由一組條件組成,並以樹狀圖的形式進行階層式排序。條件可分為以下幾類:
- 訓練決策樹時,系統會在每個節點中搜尋最佳條件。splitter 例程會使用資訊增益或Gini等指標,判斷最佳條件。
- 決策樹是一種由多個決策樹組成的模式。決策樹的預測結果是決策樹預測結果的匯總。
- 隨機森林是決策樹的集合,其中每個決策樹都會使用特定的隨機雜訊進行訓練。
- Bagging 是一種技術,可針對隨機森林中的每個決策樹,分別訓練不同的範例子集。
- 隨機森林不需要驗證資料集。相反地,大多數隨機森林會使用稱為out-of-bag-evaluation的技術來評估模型品質。
- 梯度提升 (決策) 樹狀圖是一種決策樹狀圖,透過輸入決策樹的迭代調整進行訓練。名為「收縮」的值會控制梯度提升 (決策) 樹的學習速度,以及過度擬合程度。
參考資料
除非另有註明,否則本頁面中的內容是採用創用 CC 姓名標示 4.0 授權,程式碼範例則為阿帕契 2.0 授權。詳情請參閱《Google Developers 網站政策》。Java 是 Oracle 和/或其關聯企業的註冊商標。
上次更新時間:2025-02-25 (世界標準時間)。
[null,null,["上次更新時間:2025-02-25 (世界標準時間)。"],[[["Decision trees utilize conditions organized hierarchically to make predictions, with training focused on finding the optimal condition for each node."],["Decision forests combine predictions from multiple decision trees, while random forests introduce randomness during training to improve performance."],["Random forests employ out-of-bag evaluation for model assessment, eliminating the need for a separate validation dataset."],["Gradient boosted decision trees are iteratively trained with adjustments influenced by shrinkage, balancing learning rate and overfitting potential."]]],[]]