ข้อมูลที่เหมาะสมสําหรับป่าการตัดสินใจ
จัดทุกอย่างให้เป็นระเบียบอยู่เสมอด้วยคอลเล็กชัน
บันทึกและจัดหมวดหมู่เนื้อหาตามค่ากำหนดของคุณ
ป่าการตัดสินใจจะมีประสิทธิภาพสูงสุดเมื่อคุณมีชุดข้อมูลตาราง (ข้อมูลที่คุณอาจแสดงในสเปรดชีต ไฟล์ CSV หรือตารางฐานข้อมูล) ข้อมูลแบบตารางเป็นหนึ่งในรูปแบบข้อมูลที่พบบ่อยที่สุด และป่าการตัดสินใจควรเป็นโซลูชัน "ที่ต้องใช้" ในการสร้างโมเดล
ตารางที่ 1 ตัวอย่างชุดข้อมูลตาราง
จำนวนขา |
จำนวนดวงตา |
น้ำหนัก (ปอนด์) |
สายพันธุ์ (ป้ายกำกับ) |
2 | 2 | 12 | เพนกวิน |
8 | 6 | 0.1 | แมงมุม |
4 | 2 | 44 | สุนัข |
… | … | … | … |
ต่างจากเครือข่ายประสาท Decision Forest ใช้ข้อมูลตารางของโมเดลโดยค่าเริ่มต้น
เมื่อพัฒนาป่าการตัดสินใจ คุณไม่จําเป็นต้องทํางานต่อไปนี้
- ดำเนินการเตรียมข้อมูล เช่น การทำให้ค่าของฟีเจอร์เป็นมาตรฐานหรือการเข้ารหัสแบบฮอตเวิร์ก
- ทำการประมาณ (เช่น แทนที่ค่าที่ขาดหายไปด้วย
-1
)
อย่างไรก็ตาม ป่าการตัดสินใจไม่เหมาะที่จะใช้กับข้อมูลที่ไม่ใช่ตาราง (หรือที่เรียกว่าข้อมูลที่ไม่มีโครงสร้าง) เช่น รูปภาพหรือข้อความโดยตรง มีวิธีแก้ปัญหาข้อจำกัดนี้ แต่โดยทั่วไปแล้ว เครือข่ายประสาทจะจัดการข้อมูลที่ไม่มีโครงสร้างได้ดีกว่า
ป่าการตัดสินใจใช้ตัวอย่างอย่างมีประสิทธิภาพ กล่าวคือ ป่าการตัดสินใจเหมาะสําหรับการฝึกชุดข้อมูลขนาดเล็ก หรือชุดข้อมูลที่มีอัตราส่วนจํานวนฟีเจอร์ / จํานวนตัวอย่างสูง (อาจมากกว่า 1) แม้ว่าป่าการตัดสินใจจะใช้ตัวอย่างข้อมูลอย่างมีประสิทธิภาพ แต่ก็ทํางานได้ดีที่สุดเมื่อมีข้อมูลจํานวนมาก เช่นเดียวกับโมเดลแมชชีนเลิร์นนิงทั้งหมด
โดยปกติแล้ว ป่าการตัดสินใจจะอนุมานได้เร็วกว่าเครือข่ายประสาทที่เปรียบเทียบได้ เช่น ป่าการตัดสินใจขนาดกลางจะทำการอนุมานในไม่กี่ไมโครวินาทีบน CPU สมัยใหม่
เนื้อหาของหน้าเว็บนี้ได้รับอนุญาตภายใต้ใบอนุญาตที่ต้องระบุที่มาของครีเอทีฟคอมมอนส์ 4.0 และตัวอย่างโค้ดได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0 เว้นแต่จะระบุไว้เป็นอย่างอื่น โปรดดูรายละเอียดที่นโยบายเว็บไซต์ Google Developers Java เป็นเครื่องหมายการค้าจดทะเบียนของ Oracle และ/หรือบริษัทในเครือ
อัปเดตล่าสุด 2025-07-27 UTC
[null,null,["อัปเดตล่าสุด 2025-07-27 UTC"],[[["\u003cp\u003eDecision forests are highly effective for modeling tabular data, making them a primary choice for datasets commonly found in spreadsheets, CSV files, or databases.\u003c/p\u003e\n"],["\u003cp\u003eUnlike neural networks, decision forests directly handle tabular data without requiring preprocessing steps like feature normalization or imputation.\u003c/p\u003e\n"],["\u003cp\u003eWhile decision forests can be adapted for non-tabular data like images or text, neural networks are generally better suited for such data types.\u003c/p\u003e\n"],["\u003cp\u003eDecision forests are sample efficient, performing well even with small datasets or those with a high feature-to-example ratio, but still benefit from larger datasets.\u003c/p\u003e\n"],["\u003cp\u003eDecision forests offer faster inference speeds compared to neural networks, typically completing predictions within microseconds on modern CPUs.\u003c/p\u003e\n"]]],[],null,["# Appropriate data for decision forests\n\n\u003cbr /\u003e\n\nDecision forests are most effective when you have a tabular dataset (data you\nmight represent in a spreadsheet, csv file, or database table). Tabular data is\none of the most common data formats, and decision forests should be your \"go-to\"\nsolution for modeling it.\n\n**Table 1. An example of a tabular dataset.**\n\n| Number of legs | Number of eyes | Weight (lbs) | Species (label) |\n|----------------|----------------|--------------|-----------------|\n| 2 | 2 | 12 | Penguin |\n| 8 | 6 | 0.1 | Spider |\n| 4 | 2 | 44 | Dog |\n| ... | ... | ... | ... |\n\nUnlike neural networks, decision forests natively consume model tabular data.\nWhen developing decision forests, you don't have to do tasks like the following:\n\n- Perform preprocessing like feature normalization or one-hot encoding.\n- Perform imputation (for example, replacing a missing value with `-1`).\n\nHowever, decision forests are not well suited to directly consume non-tabular\ndata (also called unstructured data), such as images or text. Yes, workarounds\nfor this limitation do exist, but neural networks generally handle unstructured\ndata better.\n\nPerformance\n-----------\n\nDecision forests are sample efficient. That is, decision forests are well suited\nfor training on small datasets, or on datasets where the ratio of number of\nfeatures / number of examples is high (possibly greater than 1). Even though\ndecision forests are sample efficient, like all machine learning models,\ndecision forests perform best when lots of data is available.\n\nDecision forests typically infer faster than comparable neural\nnetworks. For example, a medium-size decision forest runs inference in a few\nmicroseconds on a modern CPU."]]