Forêts de décision
Une forêt d'arbres de décision est un terme générique qui décrit les modèles constitués de plusieurs arbres de décision. La prédiction d'une forêt d'arbres de décision est l'agrégation des prédictions de ses arbres de décision. L'implémentation de cette agrégation dépend de l'algorithme utilisé pour entraîner la forêt de décision. Par exemple, dans une forêt aléatoire de classification multiclasse (un type de forêt de décision), chaque arbre vote pour une seule classe, et la prédiction de la forêt aléatoire correspond à la classe la plus représentée. Dans une classification binaire, un arbre boosté par gradient (GBT, Gradient Boosted Tree) (autre type de forêt de décision) produit un logit (valeur à virgule flottante), et la prédiction de l'arbre boosté par gradient est la somme de ces valeurs suivie d'une fonction d'activation (par exemple, une fonction sigmoïde).
Les deux chapitres suivants décrivent ces deux algorithmes de forêts de décision.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/02/25 (UTC).
[null,null,["Dernière mise à jour le 2025/02/25 (UTC)."],[[["Decision forests encompass models composed of multiple decision trees, with predictions derived from aggregating individual tree predictions."],["Prediction aggregation methods vary depending on the specific decision forest algorithm employed, such as voting in random forests or logit summation in gradient boosted trees."],["Random forests and gradient boosted trees are two primary examples of decision forest algorithms, each utilizing a unique approach to prediction aggregation."],["Upcoming chapters will delve deeper into the workings of random forests and gradient boosted trees."]]],[]]