Cây quyết định: Kiểm tra kiến thức
Trang này sẽ đưa ra cho bạn một loạt bài tập trắc nghiệm về nội dung được thảo luận trong bài "Huấn luyện cây quyết định".
Câu hỏi 1
Việc thay thế các đặc điểm số bằng giá trị âm (ví dụ: thay đổi giá trị +8 thành -8) bằng bộ chia số chính xác sẽ ảnh hưởng như thế nào?
Cấu trúc của cây quyết định sẽ hoàn toàn khác.
Cấu trúc của cây quyết định thực tế sẽ khá giống nhau. Tuy nhiên, các điều kiện sẽ thay đổi.
Hệ thống sẽ học các điều kiện tương tự; chỉ các thành phần con dương/âm mới được chuyển đổi.
Tuyệt vời.
Hệ thống sẽ học các điều kiện khác nhau, nhưng cấu trúc tổng thể của cây quyết định sẽ không thay đổi.
Nếu các tính năng thay đổi, thì các điều kiện cũng sẽ thay đổi.
Câu hỏi 2
Hai câu trả lời nào mô tả đúng nhất hiệu quả của việc chỉ kiểm thử một nửa (được chọn ngẫu nhiên) các giá trị ngưỡng đề xuất trong X?
Mức tăng thông tin sẽ thấp hơn hoặc bằng.
Tốt lắm!
Cây quyết định cuối cùng sẽ có độ chính xác kiểm thử kém hơn.
Cây quyết định cuối cùng sẽ không có độ chính xác cao hơn trong quá trình huấn luyện.
Tốt lắm!
Mức tăng thông tin sẽ cao hơn hoặc bằng.
Câu hỏi 3
Điều gì sẽ xảy ra nếu đường cong "lợi tức thông tin" so với "ngưỡng" có nhiều giá trị cực đại cục bộ?
Thuật toán sẽ chọn giá trị cực đại cục bộ có giá trị ngưỡng nhỏ nhất.
Thuật toán sẽ chọn giá trị tối đa trên toàn cục.
Tốt lắm!
Không thể có nhiều giá trị cực đại cục bộ.
Có thể có nhiều giá trị cực đại cục bộ.
Câu hỏi 4
Tính toán lợi tức thông tin của phần phân tách sau:
Nút | Số lượng ví dụ tích cực | Số lượng ví dụ tiêu cực |
nút mẹ | 10 | 6 |
phần tử con đầu tiên | 8 | 2 |
phần tử con thứ hai | 2 | 4 |
Nhấp vào biểu tượng đó để xem câu trả lời.
# Positive label distribution
p_parent = 10 / (10+6) # = 0.625
p_child_1 = 8 / (8+2) # = 0.8
p_child_2 = 2 / (2+4) # = 0.3333333
# Entropy
h_parent = -p_parent * log(p_parent) - (1-p_parent) * log(1-p_parent) # = 0.6615632
h_child_1 = ... # = 0.5004024
h_child_2 = ... # = 0.6365142
# Ratio of example in the child 1
s = (8+2)/(10+6)
f_final = s * h_child_1 + (1-s) * h_child_2 # = 0.5514443
information_gain = h_parent - f_final # = 0.1101189
Trừ phi có lưu ý khác, nội dung của trang này được cấp phép theo Giấy phép ghi nhận tác giả 4.0 của Creative Commons và các mẫu mã lập trình được cấp phép theo Giấy phép Apache 2.0. Để biết thông tin chi tiết, vui lòng tham khảo Chính sách trang web của Google Developers. Java là nhãn hiệu đã đăng ký của Oracle và/hoặc các đơn vị liên kết với Oracle.
Cập nhật lần gần đây nhất: 2025-02-25 UTC.
[null,null,["Cập nhật lần gần đây nhất: 2025-02-25 UTC."],[[["This webpage presents a series of multiple-choice exercises focused on evaluating your understanding of decision tree training concepts."],["The exercises cover topics such as the impact of feature manipulation on decision tree structure, the effects of altering threshold selection strategies, and the implications of multiple local maxima in information gain curves."],["One question requires calculating information gain using entropy and provided data, demonstrating the practical application of decision tree principles."]]],[]]