Tóm tắt khóa học
Sử dụng bộ sưu tập để sắp xếp ngăn nắp các trang
Lưu và phân loại nội dung dựa trên lựa chọn ưu tiên của bạn.
Dưới đây là thông tin tóm tắt nhanh về những điều bạn đã học được trong khoá học này:
- Cây quyết định là một mô hình
gồm một tập hợp các
điều kiện được sắp xếp
theo phân cấp ở dạng cây. Các điều kiện thuộc nhiều danh mục:
- Việc huấn luyện cây quyết định liên quan đến việc tìm kiếm điều kiện tốt nhất tại mỗi nút. Quy trình splitter (trình phân tách) sử dụng các chỉ số như mức tăng thông tin hoặc Gini để xác định điều kiện tốt nhất.
- Rừng quyết định là một chế độ được tạo thành từ nhiều cây quyết định. Dự đoán của rừng quyết định là kết quả tổng hợp của các dự đoán của cây quyết định.
- Rừng ngẫu nhiên là một tập hợp các cây quyết định, trong đó mỗi cây quyết định được huấn luyện bằng một nhiễu ngẫu nhiên cụ thể.
- Bagging là một kỹ thuật trong đó mỗi cây quyết định trong rừng ngẫu nhiên được huấn luyện trên một tập hợp con khác nhau của các ví dụ.
- Rừng ngẫu nhiên không yêu cầu tập dữ liệu xác thực. Thay vào đó, hầu hết các rừng ngẫu nhiên đều sử dụng một kỹ thuật có tên là out-of-bag-evaluation để đánh giá chất lượng của mô hình.
- Cây tăng cường độ dốc (quyết định) là một loại rừng quyết định được huấn luyện thông qua các điều chỉnh lặp lại từ cây quyết định đầu vào. Một giá trị có tên là shrinkage (thu hẹp) kiểm soát tốc độ mà cây tăng cường độ dốc (quyết định) học và mức độ mà cây này có thể phù hợp quá mức.
Tài liệu tham khảo
Trừ phi có lưu ý khác, nội dung của trang này được cấp phép theo Giấy phép ghi nhận tác giả 4.0 của Creative Commons và các mẫu mã lập trình được cấp phép theo Giấy phép Apache 2.0. Để biết thông tin chi tiết, vui lòng tham khảo Chính sách trang web của Google Developers. Java là nhãn hiệu đã đăng ký của Oracle và/hoặc các đơn vị liên kết với Oracle.
Cập nhật lần gần đây nhất: 2025-02-25 UTC.
[null,null,["Cập nhật lần gần đây nhất: 2025-02-25 UTC."],[[["\u003cp\u003eDecision trees utilize conditions organized hierarchically to make predictions, with training focused on finding the optimal condition for each node.\u003c/p\u003e\n"],["\u003cp\u003eDecision forests combine predictions from multiple decision trees, while random forests introduce randomness during training to improve performance.\u003c/p\u003e\n"],["\u003cp\u003eRandom forests employ out-of-bag evaluation for model assessment, eliminating the need for a separate validation dataset.\u003c/p\u003e\n"],["\u003cp\u003eGradient boosted decision trees are iteratively trained with adjustments influenced by shrinkage, balancing learning rate and overfitting potential.\u003c/p\u003e\n"]]],[],null,["# Course Summary\n\n\u003cbr /\u003e\n\nHere is a quick summary of what you learned in the course:\n\n- A [**decision tree**](/machine-learning/glossary#decision-tree) is a model composed of a collection of [**conditions**](/machine-learning/glossary#condition) organized hierarchically in the shape of a tree. Conditions fall into various categories:\n - An [**axis-aligned\n condition**](/machine-learning/glossary#axis-aligned-condition) involves only a single feature. An [**oblique\n condition**](/machine-learning/glossary#oblique-condition) involves multiple features.\n - A [**binary\n condition**](/machine-learning/glossary#binary-condition) has two possible outcomes. A [**non-binary\n condition**](/machine-learning/glossary#non-binary-condition) has more than two possible outcomes.\n- Training a decision tree involves searching for the best condition at each node. The [**splitter**](/machine-learning/glossary#splitter) routine uses metrics such as [**information\n gain**](/machine-learning/glossary#information-gain) or [**Gini**](/machine-learning/glossary#gini-impurity) to determine the best condition.\n- A [**decision forest**](/machine-learning/glossary#decision-forest) is a mode made of multiple decision trees. The prediction of a decision forest is the aggregation of the predictions of its decision trees.\n- A [**random forest**](/machine-learning/glossary#random-forest) is an ensemble of decision trees in which each decision tree is trained with a specific random noise.\n- [**Bagging**](/machine-learning/glossary#bagging) is a technique in which each decision tree in the random forest is trained on a different subset of examples.\n- Random forests do not require a validation dataset. Instead, most random forests use a technique called [**out-of-bag-evaluation**](/machine-learning/glossary#out-of-bag-evaluation) to evaluate the quality of the model.\n- A [**gradient boosted (decision)\n tree**](/machine-learning/glossary#gradient-boosted-decision-trees-gbt) is a type of decision forest trained through iterative adjustments from input decision trees. A value called [**shrinkage**](/machine-learning/glossary#shrinkage) controls the rate at which a gradient boosted (decision) tree learns and the degree to which it could overfit.\n\nReferences\n----------\n\n- [Greedy Function Approximation: A Gradient Boosting\n Machine](https://jerryfriedman.su.domains/ftp/trebst.pdf), J. Friedman.\n- [The Elements of Statistical\n Learning](https://web.stanford.edu/%7Ehastie/Papers/ESLII.pdf), Trevor Hastie. Chapter 10.\n- [Generalized Boosted Models: A guide to the gbm\n package](http://www.saedsayad.com/docs/gbm2.pdf), G. Ridgeway"]]