Alberi decisionali: verifica le tue conoscenze

In questa pagina ti viene chiesto di rispondere a una serie di esercizi a scelta multipla sul materiale discusso nell'unità "Addestramento degli alberi decisionali".

Domanda 1

Quali sono gli effetti della sostituzione degli elementi numerici con i relativi valori negativi (ad esempio, la modifica del valore +8 in -8) con lo splitter numerico esatto?
Verranno apprese le stesse condizioni; solo gli elementi figli positivi/negativi verranno scambiati.
La struttura dell'albero decisionale sarà completamente diversa.
Verranno apprese condizioni diverse, ma la struttura complessiva dell'albero decisionale rimarrà invariata.

Domanda 2

Quali due risposte descrivono meglio l'effetto del test di solo la metà (selezionata in modo casuale) dei valori di soglia candidati in X?
Il guadagno di informazioni sarebbe maggiore o uguale.
L'albero decisionale finale non avrebbe una maggiore precisione di addestramento.
Il guadagno di informazioni sarebbe inferiore o uguale.
L'albero decisionale finale avrebbe un'accuratezza di test peggiore.

Domanda 3

Cosa succederebbe se la curva "guadagno di informazioni" rispetto a "soglia" avesse più massimi locali?
L'algoritmo selezionerà il massimo globale.
È impossibile avere più massimi locali.
L'algoritmo seleziona i massimi locali con il valore di soglia più piccolo.

Domanda 4

Calcola il guadagno di informazione della seguente suddivisione:

Nodo Numero di esempi positivi Numero di esempi negativi
Nodo principale 10 6
primo figlio 8 2
secondo figlio 2 4
# Positive label distribution
p_parent = 10 / (10+6) # = 0.625
p_child_1 = 8 / (8+2) # = 0.8
p_child_2 = 2 / (2+4) # = 0.3333333

# Entropy
h_parent = -p_parent * log(p_parent) - (1-p_parent) * log(1-p_parent) # = 0.6615632
h_child_1 = ... # = 0.5004024
h_child_2 = ... # = 0.6365142

# Ratio of example in the child 1
s = (8+2)/(10+6)
f_final = s * h_child_1 + (1-s) * h_child_2 # = 0.5514443

information_gain = h_parent - f_final # = 0.1101189