결정 포레스트
컬렉션을 사용해 정리하기
내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요.
결정 포레스트는 여러 결정 트리로 구성된 모델을 설명하는 일반적인 용어입니다. 결정 포레스트의 예측은 결정 트리의 예측을 집계한 것입니다. 이 집계의 구현은 결정 포레스트 학습에 사용된 알고리즘에 따라 다릅니다. 예를 들어 다중 클래스 분류 랜덤 포레스트 (결정 포레스트의 한 유형)에서 각 트리는 단일 클래스에 투표하며 랜덤 포레스트 예측은 가장 많이 표시되는 클래스입니다. 이진 분류 그래디언트 부스트 트리 (GBT)(다른 유형의 결정 포레스트)에서 각 트리는 로짓 (부동 소수점 값)을 출력하고 그래디언트 부스트 트리 예측은 이러한 값의 합계에 활성화 함수 (예: 시그모이드)를 적용한 값입니다.
다음 두 챕터에서는 이러한 두 가지 의사 결정 열림 알고리즘을 자세히 설명합니다.
달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
최종 업데이트: 2025-07-27(UTC)
[null,null,["최종 업데이트: 2025-07-27(UTC)"],[[["\u003cp\u003eDecision forests encompass models composed of multiple decision trees, with predictions derived from aggregating individual tree predictions.\u003c/p\u003e\n"],["\u003cp\u003ePrediction aggregation methods vary depending on the specific decision forest algorithm employed, such as voting in random forests or logit summation in gradient boosted trees.\u003c/p\u003e\n"],["\u003cp\u003eRandom forests and gradient boosted trees are two primary examples of decision forest algorithms, each utilizing a unique approach to prediction aggregation.\u003c/p\u003e\n"],["\u003cp\u003eUpcoming chapters will delve deeper into the workings of random forests and gradient boosted trees.\u003c/p\u003e\n"]]],[],null,["# Decision Forests\n\n\u003cbr /\u003e\n\nA **decision forest** is a generic term to describe models made of multiple\ndecision trees. The prediction of a decision forest is the aggregation of the\npredictions of its decision trees. The implementation of this aggregation\ndepends on the algorithm used to train the decision forest. For example, in a\nmulti-class classification random forest (a type of decision forest), each tree\nvotes for a single class, and the random forest prediction is the most\nrepresented class. In a binary classification gradient boosted Tree (GBT)\n(another type of decision forest), each tree outputs a logit (a floating point\nvalue), and the gradient boosted tree prediction is the sum of those values\nfollowed by an activation function (e.g. sigmoid).\n\nThe next two chapters detail those two decision forests algorithms."]]