결정 트리: 학습 내용 확인하기

이 페이지에서는 '학습 결정 트리' 단원에서 다룬 자료에 관한 일련의 객관식 연습문제에 답변해 보세요.

질문 1

숫자 특성을 음수 값으로 대체하면 (예: 값 +8을 -8로 변경) 정확한 숫자 스플리터를 사용했을 때 어떤 효과가 있나요?
동일한 조건이 학습되며 긍정/부정 하위 요소만 전환됩니다.
결정 트리의 구조가 완전히 달라집니다.
다른 조건이 학습되지만 결정 트리의 전체 구조는 동일하게 유지됩니다.

질문 2

X의 후보 임곗값 중 절반(무작위로 선택됨)만 테스트하는 효과를 가장 잘 설명하는 두 가지 답변은 무엇인가요?
정보 이득은 더 높거나 같습니다.
최종 결정 트리의 학습 정확도는 더 높지 않습니다.
최종 결정 트리의 테스트 정확성이 떨어집니다.
정보 이득은 더 낮거나 같습니다.

질문 3

'정보 이득' 대 '기준점' 곡선에 여러 개의 국부 최대값이 있으면 어떻게 되나요?
로컬 최대값은 여러 개 있을 수 없습니다.
알고리즘은 전역 최대값을 선택합니다.
알고리즘은 임곗값이 가장 작은 로컬 최대값을 선택합니다.

질문 4

다음 분할의 정보 이득을 계산합니다.

노드 긍정적인 예시 수 제외 예시 수
상위 노드 10 6
첫째 자녀 8 2
두 번째 자녀 2 4
# Positive label distribution
p_parent = 10 / (10+6) # = 0.625
p_child_1 = 8 / (8+2) # = 0.8
p_child_2 = 2 / (2+4) # = 0.3333333

# Entropy
h_parent = -p_parent * log(p_parent) - (1-p_parent) * log(1-p_parent) # = 0.6615632
h_child_1 = ... # = 0.5004024
h_child_2 = ... # = 0.6365142

# Ratio of example in the child 1
s = (8+2)/(10+6)
f_final = s * h_child_1 + (1-s) * h_child_2 # = 0.5514443

information_gain = h_parent - f_final # = 0.1101189