সিদ্ধান্ত বন
সেভ করা পৃষ্ঠা গুছিয়ে রাখতে 'সংগ্রহ' ব্যবহার করুন
আপনার পছন্দ অনুযায়ী কন্টেন্ট সেভ করুন ও সঠিক বিভাগে রাখুন।
ডিসিশন ফরেস্ট হল একাধিক ডিসিশন ট্রি দিয়ে তৈরি মডেল বর্ণনা করার জন্য একটি সাধারণ শব্দ। একটি সিদ্ধান্ত বনের ভবিষ্যদ্বাণী হল তার সিদ্ধান্ত গাছের ভবিষ্যদ্বাণীগুলির সমষ্টি। এই সমষ্টির বাস্তবায়ন সিদ্ধান্ত বন প্রশিক্ষণের জন্য ব্যবহৃত অ্যালগরিদমের উপর নির্ভর করে। উদাহরণস্বরূপ, একটি বহু-শ্রেণীর শ্রেণীবিভাগ র্যান্ডম ফরেস্টে (এক ধরনের সিদ্ধান্তের বন), প্রতিটি গাছ একটি একক শ্রেণির জন্য ভোট দেয় এবং এলোমেলো বন ভবিষ্যদ্বাণী হল সর্বাধিক প্রতিনিধিত্ব করা শ্রেণী। একটি বাইনারি শ্রেণীবিভাগে গ্রেডিয়েন্ট বুস্টেড ট্রি (GBT) (অন্য ধরনের ডিসিশন ফরেস্ট), প্রতিটি গাছ একটি লগিট (একটি ফ্লোটিং পয়েন্ট মান) আউটপুট করে এবং গ্রেডিয়েন্ট বুস্টেড ট্রি ভবিষ্যদ্বাণী হল সেই মানগুলির সমষ্টি যা একটি অ্যাক্টিভেশন ফাংশন (যেমন সিগমায়েড) দ্বারা অনুসরণ করা হয়।
পরবর্তী দুটি অধ্যায় সেই দুটি সিদ্ধান্ত বন অ্যালগরিদমের বিশদ বিবরণ দেয়।
অন্য কিছু উল্লেখ না করা থাকলে, এই পৃষ্ঠার কন্টেন্ট Creative Commons Attribution 4.0 License-এর অধীনে এবং কোডের নমুনাগুলি Apache 2.0 License-এর অধীনে লাইসেন্স প্রাপ্ত। আরও জানতে, Google Developers সাইট নীতি দেখুন। Java হল Oracle এবং/অথবা তার অ্যাফিলিয়েট সংস্থার রেজিস্টার্ড ট্রেডমার্ক।
2025-07-29 UTC-তে শেষবার আপডেট করা হয়েছে।
[null,null,["2025-07-29 UTC-তে শেষবার আপডেট করা হয়েছে।"],[[["\u003cp\u003eDecision forests encompass models composed of multiple decision trees, with predictions derived from aggregating individual tree predictions.\u003c/p\u003e\n"],["\u003cp\u003ePrediction aggregation methods vary depending on the specific decision forest algorithm employed, such as voting in random forests or logit summation in gradient boosted trees.\u003c/p\u003e\n"],["\u003cp\u003eRandom forests and gradient boosted trees are two primary examples of decision forest algorithms, each utilizing a unique approach to prediction aggregation.\u003c/p\u003e\n"],["\u003cp\u003eUpcoming chapters will delve deeper into the workings of random forests and gradient boosted trees.\u003c/p\u003e\n"]]],[],null,["# Decision Forests\n\n\u003cbr /\u003e\n\nA **decision forest** is a generic term to describe models made of multiple\ndecision trees. The prediction of a decision forest is the aggregation of the\npredictions of its decision trees. The implementation of this aggregation\ndepends on the algorithm used to train the decision forest. For example, in a\nmulti-class classification random forest (a type of decision forest), each tree\nvotes for a single class, and the random forest prediction is the most\nrepresented class. In a binary classification gradient boosted Tree (GBT)\n(another type of decision forest), each tree outputs a logit (a floating point\nvalue), and the gradient boosted tree prediction is the sum of those values\nfollowed by an activation function (e.g. sigmoid).\n\nThe next two chapters detail those two decision forests algorithms."]]