Decision Forest
จัดทุกอย่างให้เป็นระเบียบอยู่เสมอด้วยคอลเล็กชัน
บันทึกและจัดหมวดหมู่เนื้อหาตามค่ากำหนดของคุณ
ป่าการตัดสินใจเป็นคําทั่วไปที่ใช้อธิบายโมเดลที่สร้างจากต้นไม้การตัดสินใจหลายต้น การคาดการณ์ของป่าการตัดสินใจคือการรวมการคาดการณ์ของต้นไม้การตัดสินใจ การใช้งานการรวมนี้ขึ้นอยู่กับอัลกอริทึมที่ใช้ในการฝึกป่าการตัดสินใจ ตัวอย่างเช่น ใน Random Forest การจัดประเภทหลายคลาส (Decision Forest ประเภทหนึ่ง) ต้นไม้แต่ละต้นจะโหวตให้กับคลาสเดียว และการคาดการณ์ของ Random Forest คือคลาสที่มีการแสดงมากที่สุด ในต้นไม้ที่เพิ่มประสิทธิภาพด้วย Gradient (GBT) สำหรับการแยกประเภทแบบ 2 กลุ่ม (ป่าการตัดสินใจอีกประเภทหนึ่ง) ต้นไม้แต่ละต้นจะแสดงผลลัพธ์เป็นลอจิท (ค่าทศนิยม) และการคาดการณ์ของต้นไม้ที่เพิ่มประสิทธิภาพด้วย Gradient คือผลรวมของค่าเหล่านั้น ตามด้วยฟังก์ชันการเปิดใช้งาน (เช่น sigmoid)
2 บทถัดไปจะอธิบายอัลกอริทึมป่าการตัดสินใจ 2 รายการดังกล่าวโดยละเอียด
เนื้อหาของหน้าเว็บนี้ได้รับอนุญาตภายใต้ใบอนุญาตที่ต้องระบุที่มาของครีเอทีฟคอมมอนส์ 4.0 และตัวอย่างโค้ดได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0 เว้นแต่จะระบุไว้เป็นอย่างอื่น โปรดดูรายละเอียดที่นโยบายเว็บไซต์ Google Developers Java เป็นเครื่องหมายการค้าจดทะเบียนของ Oracle และ/หรือบริษัทในเครือ
อัปเดตล่าสุด 2025-07-27 UTC
[null,null,["อัปเดตล่าสุด 2025-07-27 UTC"],[[["\u003cp\u003eDecision forests encompass models composed of multiple decision trees, with predictions derived from aggregating individual tree predictions.\u003c/p\u003e\n"],["\u003cp\u003ePrediction aggregation methods vary depending on the specific decision forest algorithm employed, such as voting in random forests or logit summation in gradient boosted trees.\u003c/p\u003e\n"],["\u003cp\u003eRandom forests and gradient boosted trees are two primary examples of decision forest algorithms, each utilizing a unique approach to prediction aggregation.\u003c/p\u003e\n"],["\u003cp\u003eUpcoming chapters will delve deeper into the workings of random forests and gradient boosted trees.\u003c/p\u003e\n"]]],[],null,["# Decision Forests\n\n\u003cbr /\u003e\n\nA **decision forest** is a generic term to describe models made of multiple\ndecision trees. The prediction of a decision forest is the aggregation of the\npredictions of its decision trees. The implementation of this aggregation\ndepends on the algorithm used to train the decision forest. For example, in a\nmulti-class classification random forest (a type of decision forest), each tree\nvotes for a single class, and the random forest prediction is the most\nrepresented class. In a binary classification gradient boosted Tree (GBT)\n(another type of decision forest), each tree outputs a logit (a floating point\nvalue), and the gradient boosted tree prediction is the sum of those values\nfollowed by an activation function (e.g. sigmoid).\n\nThe next two chapters detail those two decision forests algorithms."]]