Alberi decisionali: verifica le tue conoscenze
In questa pagina ti viene chiesto di rispondere a una serie di esercizi a scelta multipla sul materiale discusso nell'unità "Addestramento degli alberi decisionali".
Domanda 1
Quali sono gli effetti della sostituzione degli elementi numerici con i relativi valori negativi (ad esempio, la modifica del valore +8 in -8) con lo splitter numerico esatto?
La struttura dell'albero decisionale sarà completamente diversa.
La struttura dell'albero decisionale sarà in realtà
praticamente la stessa. Le condizioni cambieranno, però.
Verranno apprese condizioni diverse, ma la struttura complessiva
dell'albero decisionale rimarrà invariata.
Se le funzionalità cambiano, cambieranno anche le condizioni.
Verranno apprese le stesse condizioni; solo gli elementi figli positivi/negativi verranno scambiati.
Fantastico.
Domanda 2
Quali due risposte descrivono meglio l'effetto del test di solo la metà
(selezionata in modo casuale) dei valori di soglia candidati in X?
Il guadagno di informazioni sarebbe inferiore o uguale.
Bene.
L'albero decisionale finale avrebbe un'accuratezza di test peggiore.
L'albero decisionale finale non avrebbe una maggiore precisione di addestramento.
Bene.
Il guadagno di informazioni sarebbe maggiore o uguale.
Domanda 3
Cosa succederebbe se la curva "guadagno di informazioni" rispetto a "soglia" avesse più massimi locali?
L'algoritmo selezionerà il massimo globale.
Bene.
L'algoritmo seleziona i massimi locali con il valore di soglia più piccolo.
È impossibile avere più massimi locali.
Sono possibili più massimi locali.
Domanda 4
Calcola il guadagno di informazione della seguente suddivisione:
Nodo | Numero di esempi positivi | Numero di
esempi negativi |
Nodo principale | 10 | 6 |
primo figlio | 8 | 2 |
secondo figlio | 2 | 4 |
Fai clic sull'icona per visualizzare la risposta.
# Positive label distribution
p_parent = 10 / (10+6) # = 0.625
p_child_1 = 8 / (8+2) # = 0.8
p_child_2 = 2 / (2+4) # = 0.3333333
# Entropy
h_parent = -p_parent * log(p_parent) - (1-p_parent) * log(1-p_parent) # = 0.6615632
h_child_1 = ... # = 0.5004024
h_child_2 = ... # = 0.6365142
# Ratio of example in the child 1
s = (8+2)/(10+6)
f_final = s * h_child_1 + (1-s) * h_child_2 # = 0.5514443
information_gain = h_parent - f_final # = 0.1101189
Salvo quando diversamente specificato, i contenuti di questa pagina sono concessi in base alla licenza Creative Commons Attribution 4.0, mentre gli esempi di codice sono concessi in base alla licenza Apache 2.0. Per ulteriori dettagli, consulta le norme del sito di Google Developers. Java è un marchio registrato di Oracle e/o delle sue consociate.
Ultimo aggiornamento 2025-02-25 UTC.
[null,null,["Ultimo aggiornamento 2025-02-25 UTC."],[[["This webpage presents a series of multiple-choice exercises focused on evaluating your understanding of decision tree training concepts."],["The exercises cover topics such as the impact of feature manipulation on decision tree structure, the effects of altering threshold selection strategies, and the implications of multiple local maxima in information gain curves."],["One question requires calculating information gain using entropy and provided data, demonstrating the practical application of decision tree principles."]]],[]]