결정 트리: 학습 내용 확인하기
이 페이지에서는 여러 객관식 연습 문제에 답할 수 있습니다.
'학습 결정 트리' 사용됩니다.
질문 1
숫자 특성을 특성으로 바꾸면 어떤 결과가 나타나는가?
음수 값 (예: +8을 -8로 변경)을
정확히 어떻게 해야 할까요?
동일한 조건이 학습됩니다. 만
양성/부정적 하위 요소가 서로 전환됩니다
환상적입니다.
다양한 조건이 학습되지만 전반적인 구조는
동일하게 유지됩니다.
특성이 변경되면 조건도 변경됩니다.
결정 트리의 구조는 완전히
다릅니다.
결정 트리의 구조는 실제로
거의 동일합니다. 하지만 조건은 변경됩니다.
질문 2
다음 중 테스트의 효과를 가장 잘 설명하는 두 가지 답변은 무엇인가요?
X의 후보 임곗값 중 (무작위로 선택됨)이 무엇인가요?
정보 획득은 더 낮거나 같을 것입니다.
잘하셨습니다.
최종 결정 트리는 테스트 정확도가 떨어질 수 있습니다.
최종 결정 트리는 이보다 더 나은 학습 정확성을 얻지 못합니다.
잘하셨습니다.
질문 3
만약 '정보 획득'이 '기준점' 비교 곡선
여러 개의 로컬 최댓값이 있었나요?
여러 개의 로컬 최댓값을 가질 수는 없습니다.
여러 개의 로컬 최댓값이 가능합니다.
알고리즘은 가장 작은 값의 국소 최댓값을
기준값입니다.
알고리즘이 전역 최댓값을 선택합니다.
잘하셨습니다.
질문 4
다음 분할의 정보 획득을 계산합니다.
노드 | 긍정적인 예 수 | 제외 항목 수
예 |
상위 노드 | 10 | 6 |
첫 번째 자녀 | 8 | 2 |
두 번째 자녀 | 2 | 4 |
정답을 확인하려면 아이콘을 클릭하세요.
# Positive label distribution
p_parent = 10 / (10+6) # = 0.625
p_child_1 = 8 / (8+2) # = 0.8
p_child_2 = 2 / (2+4) # = 0.3333333
# Entropy
h_parent = -p_parent * log(p_parent) - (1-p_parent) * log(1-p_parent) # = 0.6615632
h_child_1 = ... # = 0.5004024
h_child_2 = ... # = 0.6365142
# Ratio of example in the child 1
s = (8+2)/(10+6)
f_final = s * h_child_1 + (1-s) * h_child_2 # = 0.5514443
information_gain = h_parent - f_final # = 0.1101189
달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
최종 업데이트: 2024-08-29(UTC)
[null,null,["최종 업데이트: 2024-08-29(UTC)"],[[["This webpage presents a series of multiple-choice exercises focused on evaluating your understanding of decision tree training concepts."],["The exercises cover topics such as the impact of feature manipulation on decision tree structure, the effects of altering threshold selection strategies, and the implications of multiple local maxima in information gain curves."],["One question requires calculating information gain using entropy and provided data, demonstrating the practical application of decision tree principles."]]],[]]