Foreste decisionale
Un forestazione decisionale è un termine generico che descrive i modelli composti da più alberi decisionale. La previsione di un bosco decisionale è l'aggregazione delle previsioni dei suoi alberi decisionale. L'implementazione di questa aggregazione dipende dall'algoritmo utilizzato per addestrare la foresta decisionale. Ad esempio, in una foresta casuale di classificazione di più classi (un tipo di foresta decisionale), ogni albero dà un voto per una singola classe e la previsione della foresta casuale è la classe più rappresentata. In una struttura a gradiente di classificazione binari con albero (GBT) (un altro tipo di foresta decisionale), ogni albero genera un logit (un valore in virgola mobile) e la previsione con albero con gradiente è la somma di questi valori seguiti da una funzione di attivazione (ad es. sigmoide).
I prossimi due capitoli descrivono nel dettaglio questi due algoritmi della foresta decisionale.
Salvo quando diversamente specificato, i contenuti di questa pagina sono concessi in base alla licenza Creative Commons Attribution 4.0, mentre gli esempi di codice sono concessi in base alla licenza Apache 2.0. Per ulteriori dettagli, consulta le norme del sito di Google Developers. Java è un marchio registrato di Oracle e/o delle sue consociate.
Ultimo aggiornamento 2022-09-27 UTC.
[null,null,["Ultimo aggiornamento 2022-09-27 UTC."],[[["Decision forests encompass models composed of multiple decision trees, with predictions derived from aggregating individual tree predictions."],["Prediction aggregation methods vary depending on the specific decision forest algorithm employed, such as voting in random forests or logit summation in gradient boosted trees."],["Random forests and gradient boosted trees are two primary examples of decision forest algorithms, each utilizing a unique approach to prediction aggregation."],["Upcoming chapters will delve deeper into the workings of random forests and gradient boosted trees."]]],[]]