Foreste decisionale
Una foresta di alberi decisionali è un termine generico per descrivere i modelli costituiti da più
alberi decisionali. La previsione di una foresta decisionale è l'aggregazione delle
predizioni dei suoi alberi decisionali. L'implementazione di questa aggregazione dipende dall'algoritmo utilizzato per addestrare la foresta decisionale. Ad esempio, in una foresta random per la classificazione multiclasse (un tipo di foresta decisionale), ogni albero vota per una singola classe e la previsione della foresta random è la classe più rappresentata. In un albero con boosting per la classificazione binaria (GBT)
(un altro tipo di foresta decisionale), ogni albero genera un logit (un valore in virgola mobile) e la previsione dell'albero con boosting è la somma di questi valori followed da una funzione di attivazione (ad es. sigmoidea).
I due capitoli successivi descrivono in dettaglio questi due algoritmi delle foreste di alberi decisionali.
Salvo quando diversamente specificato, i contenuti di questa pagina sono concessi in base alla licenza Creative Commons Attribution 4.0, mentre gli esempi di codice sono concessi in base alla licenza Apache 2.0. Per ulteriori dettagli, consulta le norme del sito di Google Developers. Java è un marchio registrato di Oracle e/o delle sue consociate.
Ultimo aggiornamento 2025-02-25 UTC.
[null,null,["Ultimo aggiornamento 2025-02-25 UTC."],[[["Decision forests encompass models composed of multiple decision trees, with predictions derived from aggregating individual tree predictions."],["Prediction aggregation methods vary depending on the specific decision forest algorithm employed, such as voting in random forests or logit summation in gradient boosted trees."],["Random forests and gradient boosted trees are two primary examples of decision forest algorithms, each utilizing a unique approach to prediction aggregation."],["Upcoming chapters will delve deeper into the workings of random forests and gradient boosted trees."]]],[]]