Árboles de decisiones: Comprueba tus conocimientos
En esta página, se te propone responder una serie de ejercicios de opción múltiple sobre el material que se analizó en la unidad "Entrenamiento de árboles de decisión".
Pregunta 1
¿Cuáles son los efectos de reemplazar los atributos numéricos por sus valores negativos (por ejemplo, cambiar el valor de +8 a -8) con el divisor numérico exacto?
La estructura del árbol de decisión será completamente distinta.
La estructura del árbol de decisión será
prácticamente la misma. Sin embargo, las condiciones cambiarán.
Se aprenderán diferentes condiciones, pero la estructura general
del árbol de decisión seguirá siendo la misma.
Si cambian las funciones, también lo harán las condiciones.
Se aprenderán las mismas condiciones; solo se cambiarán los elementos secundarios positivos o negativos.
Fantástico.
Pregunta 2
¿Qué dos respuestas describen mejor el efecto de probar solo la mitad (seleccionada al azar) de los valores de umbral candidatos en X?
El árbol de decisión final no tendría una mejor precisión de entrenamiento.
Bien hecho.
El árbol de decisión final tendría una peor precisión de prueba.
La ganancia de información sería menor o igual.
Bien hecho.
La ganancia de información sería mayor o igual.
Pregunta 3
¿Qué sucedería si la curva de “ganancia de información” en comparación con la “curva de umbral” tuviera varios máximos locales?
El algoritmo seleccionaría el máximo global.
Bien hecho.
El algoritmo seleccionaría los máximos locales con el valor de umbral más pequeño.
Es imposible tener varios máximos locales.
Es posible tener varios máximos locales.
Pregunta 4
Calcula la ganancia de información de la siguiente división:
Nodo | Cantidad de ejemplos positivos | Cantidad de ejemplos negativos |
nodo superior | 10 | 6 |
primer hijo o hija | 8 | 2 |
segundo hijo o hija | 2 | 4 |
Haz clic en el ícono para ver la respuesta.
# Positive label distribution
p_parent = 10 / (10+6) # = 0.625
p_child_1 = 8 / (8+2) # = 0.8
p_child_2 = 2 / (2+4) # = 0.3333333
# Entropy
h_parent = -p_parent * log(p_parent) - (1-p_parent) * log(1-p_parent) # = 0.6615632
h_child_1 = ... # = 0.5004024
h_child_2 = ... # = 0.6365142
# Ratio of example in the child 1
s = (8+2)/(10+6)
f_final = s * h_child_1 + (1-s) * h_child_2 # = 0.5514443
information_gain = h_parent - f_final # = 0.1101189
Salvo que se indique lo contrario, el contenido de esta página está sujeto a la licencia Atribución 4.0 de Creative Commons, y los ejemplos de código están sujetos a la licencia Apache 2.0. Para obtener más información, consulta las políticas del sitio de Google Developers. Java es una marca registrada de Oracle o sus afiliados.
Última actualización: 2025-02-25 (UTC)
[null,null,["Última actualización: 2025-02-25 (UTC)"],[[["This webpage presents a series of multiple-choice exercises focused on evaluating your understanding of decision tree training concepts."],["The exercises cover topics such as the impact of feature manipulation on decision tree structure, the effects of altering threshold selection strategies, and the implications of multiple local maxima in information gain curves."],["One question requires calculating information gain using entropy and provided data, demonstrating the practical application of decision tree principles."]]],[]]