Sử dụng bộ sưu tập để sắp xếp ngăn nắp các trang
Lưu và phân loại nội dung dựa trên lựa chọn ưu tiên của bạn.
Rừng quyết định mang lại các lợi ích sau:
Các mạng này dễ định cấu hình hơn so với mạng nơron. Rừng quyết định có ít tham số siêu dữ liệu hơn; hơn nữa, các tham số siêu dữ liệu trong rừng quyết định cung cấp giá trị mặc định phù hợp.
Các hàm này xử lý gốc các tính năng dạng số, dạng danh mục và tính năng bị thiếu. Điều này có nghĩa là bạn có thể viết ít mã xử lý trước hơn nhiều so với khi sử dụng mạng nơron, giúp tiết kiệm thời gian và giảm nguồn lỗi.
Các mô hình này thường cho ra kết quả tốt ngay từ đầu, có khả năng xử lý tốt dữ liệu nhiễu và có các thuộc tính có thể diễn giải.
Các mô hình này suy luận và huấn luyện trên các tập dữ liệu nhỏ (< 1 triệu ví dụ) nhanh hơn nhiều so với mạng nơron.
Rừng quyết định mang lại kết quả tuyệt vời trong các cuộc thi học máy và được sử dụng rộng rãi trong nhiều nhiệm vụ công nghiệp.
Khoá học này giới thiệu về cây quyết định và rừng quyết định.
Rừng quyết định là một nhóm các thuật toán học máy có thể diễn giải, hoạt động hiệu quả với dữ liệu dạng bảng.
Rừng quyết định có thể thực hiện:
Khoá học này giải thích cách hoạt động của rừng quyết định mà không tập trung vào bất kỳ thư viện cụ thể nào.
Tuy nhiên, trong suốt khoá học, các hộp văn bản sẽ trình bày các ví dụ về mã dựa trên thư viện rừng quyết định YDF, nhưng có thể được chuyển đổi sang các thư viện rừng quyết định khác.
Điều kiện tiên quyết
Khoá học này giả định rằng bạn đã hoàn thành các khoá học sau hoặc có kiến thức tương đương:
[null,null,["Cập nhật lần gần đây nhất: 2025-02-25 UTC."],[[["\u003cp\u003eDecision forests are interpretable machine learning algorithms that work well with tabular data for tasks like classification, regression, and ranking.\u003c/p\u003e\n"],["\u003cp\u003eDecision forests offer advantages such as easy configuration, native handling of various data types, robustness to noise, and fast inference/training on smaller datasets.\u003c/p\u003e\n"],["\u003cp\u003eThis course provides a comprehensive understanding of decision trees and forests, including how they make predictions, different types, performance considerations, and effective usage strategies.\u003c/p\u003e\n"],["\u003cp\u003eThe course uses YDF library code examples to demonstrate concepts, but the knowledge is transferable to other decision forest libraries.\u003c/p\u003e\n"],["\u003cp\u003eBasic machine learning knowledge and familiarity with data preprocessing are prerequisites for this course.\u003c/p\u003e\n"]]],[],null,["# Introduction\n\n\u003cbr /\u003e\n\n| **Estimated Course Time:** 2.5 hours\n\nDecision forests provide the following benefits:\n\n- They are **easier to configure** than neural networks. Decision forests have **fewer hyperparameters** ; furthermore, the hyperparameters in decision forests provide **good defaults**.\n- They **natively handle** numeric, categorical, and missing features. This means you can write far less preprocessing code than when using a neural network, saving you time and reducing sources for error.\n- They often give **good results out of the box**, are robust to noisy data, and have interpretable properties.\n- They infer and train on small datasets (\\\u003c 1M examples) **much faster** than neural networks.\n\nDecision forests produce great results in machine learning competitions, and\nare heavily used in many industrial tasks.\n\nThis course introduces decision trees and decision forests.\nDecision forests are a family of\n[interpretable](/machine-learning/glossary#interpretability) machine learning\nalgorithms that excel with tabular data.\nDecision forests can perform:\n\n- [Classification](https://developers.google.com/machine-learning/glossary/#classification-model)\n- [Regression](https://developers.google.com/machine-learning/glossary/#regression-model)\n- [Ranking](https://developers.google.com/machine-learning/glossary/#ranking)\n- [Anomaly detection](https://developers.google.com/machine-learning/glossary#anomaly-detection)\n- [Uplift modeling](https://developers.google.com/machine-learning/glossary/#uplift-modeling).\n\n| **Learning Objectives:**\n|\n| - Explain decision trees and decision forests.\n| - Determine how decision trees and decision forests make predictions.\n| - Understand how different types of decision forests, such as random forests and gradient boosted trees.\n| - Explain when decision forests perform well, and what their limitations are.\n- Develop a sense of how to use decision forests effectively. \nYDF Code\nThis course explains how decision forests work without focusing on any specific libraries. However, throughout the course, text boxes showcase code examples that rely on the [YDF](https://ydf.readthedocs.io) decision forest library, but can be be converted to other decision forest libraries.\n\nPrerequisites\n-------------\n\nThis course assumes you have completed the following courses or have equivalent\nknowledge:\n\n- [Machine Learning Crash Course](/machine-learning/crash-course)\n- [Machine Learning Problem Framing](/machine-learning/problem-framing)\n- [Data Prep and Feature Engineering](/machine-learning/data-prep)\n\n*Happy Learning!*"]]