Árvores de decisão: teste sua compreensão
Nesta página, você vai responder a uma série de exercícios de múltipla escolha sobre o material discutido na unidade "Árvores de decisão de treinamento".
Pergunta 1
Quais são os efeitos da substituição dos recursos numéricos pelos valores negativos deles (por exemplo, mudar o valor +8 para -8) com o divisor numérico exato?
Diferentes condições serão aprendidas, mas a estrutura geral da árvore de decisão vai permanecer a mesma.
Se os recursos mudarem, as condições também vão mudar.
As mesmas condições serão aprendidas. Apenas as
crianças positivas/negativas serão trocadas.
Fantástico.
A estrutura da árvore de decisão será completamente
diferente.
A estrutura da árvore de decisão será praticamente a mesma. No entanto, as condições vão mudar.
Pergunta 2
Quais duas respostas melhor descrevem o efeito de testar apenas metade
(selecionada aleatoriamente) dos valores de limite de candidato em X?
O ganho de informações seria menor ou igual.
Muito bem.
A árvore de decisão final teria uma precisão de teste pior.
A árvore de decisão final não teria uma precisão de treinamento melhor.
Muito bem.
O ganho de informações seria maior ou igual.
Pergunta 3
O que aconteceria se a curva de "ganho de informação" em relação ao "limite"
tivesse vários máximos locais?
É impossível ter vários máximos locais.
Vários máximos locais são possíveis.
O algoritmo seleciona o máximo global.
Muito bem.
O algoritmo selecionaria os máximos locais com o menor valor de limite.
Pergunta 4
Calcule o ganho de informação da seguinte divisão:
Nó | Nº de exemplos positivos | # de exemplos
negativos |
nó pai | 10 | 6 |
primeira criança | 8 | 2 |
segundo filho | 2 | 4 |
Clique no ícone para conferir a resposta.
# Positive label distribution
p_parent = 10 / (10+6) # = 0.625
p_child_1 = 8 / (8+2) # = 0.8
p_child_2 = 2 / (2+4) # = 0.3333333
# Entropy
h_parent = -p_parent * log(p_parent) - (1-p_parent) * log(1-p_parent) # = 0.6615632
h_child_1 = ... # = 0.5004024
h_child_2 = ... # = 0.6365142
# Ratio of example in the child 1
s = (8+2)/(10+6)
f_final = s * h_child_1 + (1-s) * h_child_2 # = 0.5514443
information_gain = h_parent - f_final # = 0.1101189
Exceto em caso de indicação contrária, o conteúdo desta página é licenciado de acordo com a Licença de atribuição 4.0 do Creative Commons, e as amostras de código são licenciadas de acordo com a Licença Apache 2.0. Para mais detalhes, consulte as políticas do site do Google Developers. Java é uma marca registrada da Oracle e/ou afiliadas.
Última atualização 2025-02-25 UTC.
[null,null,["Última atualização 2025-02-25 UTC."],[[["This webpage presents a series of multiple-choice exercises focused on evaluating your understanding of decision tree training concepts."],["The exercises cover topics such as the impact of feature manipulation on decision tree structure, the effects of altering threshold selection strategies, and the implications of multiple local maxima in information gain curves."],["One question requires calculating information gain using entropy and provided data, demonstrating the practical application of decision tree principles."]]],[]]