결정 트리: 학습 내용 확인하기
컬렉션을 사용해 정리하기
내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요.
이 페이지에서는 '결정 트리' 단원에서 다룬 자료에 관한 일련의 객관식 연습문제를 풀어 보도록 합니다.
질문 1
결정 트리의 추론은 예시를 라우팅하여 실행됩니다.
리프에서 루트로 이동합니다.
모든 추론은 루트 (첫 번째 조건)에서 시작됩니다.
한 리프에서 다른 리프로 이동합니다.
모든 추론은 리프가 아닌 루트에서 시작됩니다.
질문 2
모든 조건에 단일 지형지물이 포함되나요?
예.
경사 지형지물은 여러 지형지물을 테스트합니다.
아니요.
축에 정렬된 조건은 단일 지형지물만 포함하지만 경사 조건은 여러 지형지물을 포함합니다.
질문 3
두 특성 x1과 x2에 대한 다음 예측 맵을 고려해 보겠습니다.

다음 결정 트리 중 예측 지도와 일치하는 것은 무엇인가요?
결정 트리 B
x2 ≥ 0.5 조건이 '아니요'인 경우 잎이 파란색일 수도 있고 아닐 수도 있으므로 잘못된 조건입니다.
결정 트리 C
x1이 1.0보다 크지 않으면 리프가 '주황색'이 아닌 '파란색'이어야 하므로 잘못된 리프입니다.
달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
최종 업데이트: 2025-07-27(UTC)
[null,null,["최종 업데이트: 2025-07-27(UTC)"],[[["\u003cp\u003eThis page provides multiple choice questions to test your understanding of decision trees.\u003c/p\u003e\n"],["\u003cp\u003eThe questions cover topics such as decision tree inference, types of conditions used in decision trees, and interpretation of decision tree prediction maps.\u003c/p\u003e\n"],["\u003cp\u003eCorrect answers are provided with explanations to reinforce learning.\u003c/p\u003e\n"]]],[],null,["# Decision trees: Check your understanding\n\n\u003cbr /\u003e\n\nThis page challenges you to answer a series of multiple choice exercises\nabout the material discussed in the \"Decision trees\" unit.\n\nQuestion 1\n----------\n\nThe inference of a decision tree runs by routing an example... \nfrom the leaf to the root. \nAll inference starts from the root (the first condition). \nfrom one leaf to another. \nAll inference starts from the root, not from a leaf. \nfrom the root to the leaf. \nWell done!\n\nQuestion 2\n----------\n\nDo all conditions involve only a single feature? \nYes. \nOblique features test multiple features. \nNo. \nAlthough axis-aligned conditions only involve a single feature, oblique conditions involve multiple features.\n\nQuestion 3\n----------\n\nConsider the following prediction map on two features x1 and x2:\n\nWhich of the following decision trees match the prediction map? \nDecision Tree A. \nYes! \nDecision Tree B. \nIf the condition x2 ≥ 0.5 is no, then the leaf may or may not be blue, so this is a bad condition. \nDecision Tree C. \nIf x1 is not ≥ 1.0, then the leaf should be 'blue' rather than 'orange', so this is the wrong leaf."]]