মেশিন লার্নিং শব্দকোষ: সিদ্ধান্ত বন

এই পৃষ্ঠায় ডিসিশন ফরেস্টের শব্দকোষ রয়েছে। সকল শব্দকোষের জন্য এখানে ক্লিক করুন

বৈশিষ্ট্য নমুনা

#df

একটি সিদ্ধান্ত বন প্রশিক্ষণের জন্য একটি কৌশল যেখানে প্রতিটি সিদ্ধান্ত গাছ শর্ত শেখার সময় সম্ভাব্য বৈশিষ্ট্যগুলির একটি এলোমেলো উপসেট বিবেচনা করে। সাধারণত, প্রতিটি নোডের জন্য বৈশিষ্ট্যগুলির একটি ভিন্ন উপসেট নমুনা করা হয়। বিপরীতে, অ্যাট্রিবিউট স্যাম্পলিং ছাড়াই একটি সিদ্ধান্ত গাছকে প্রশিক্ষণ দেওয়ার সময়, প্রতিটি নোডের জন্য সমস্ত সম্ভাব্য বৈশিষ্ট্য বিবেচনা করা হয়।

অক্ষ-সারিবদ্ধ অবস্থা

#df

একটি সিদ্ধান্ত গাছে , একটি শর্ত যা শুধুমাত্র একটি একক বৈশিষ্ট্য জড়িত। উদাহরণস্বরূপ, যদি area একটি বৈশিষ্ট্য হয়, তাহলে নিম্নলিখিতটি একটি অক্ষ-সারিবদ্ধ শর্ত:

area > 200

তির্যক অবস্থার সাথে বৈসাদৃশ্য।

ব্যাগিং

#df

একটি দলকে প্রশিক্ষণ দেওয়ার একটি পদ্ধতি যেখানে প্রতিটি উপাদান মডেল প্রতিস্থাপন সহ নমুনাযুক্ত প্রশিক্ষণ উদাহরণগুলির একটি এলোমেলো উপসেটে প্রশিক্ষণ দেয়। উদাহরণস্বরূপ, একটি এলোমেলো বন হল ব্যাগিংয়ের সাথে প্রশিক্ষিত সিদ্ধান্ত গাছের একটি সংগ্রহ।

ব্যাগিং শব্দটি b ootstrap agg regat ing এর জন্য সংক্ষিপ্ত।

আরও তথ্যের জন্য ডিসিশন ফরেস্ট কোর্সে এলোমেলো বন দেখুন।

বাইনারি অবস্থা

#df

একটি সিদ্ধান্ত গাছে , এমন একটি শর্ত যার শুধুমাত্র দুটি সম্ভাব্য ফলাফল রয়েছে, সাধারণত হ্যাঁ বা না । উদাহরণস্বরূপ, নিম্নলিখিত একটি বাইনারি শর্ত:

temperature >= 100

অ-বাইনারি অবস্থার সাথে বৈসাদৃশ্য।

আরও তথ্যের জন্য ডিসিশন ফরেস্ট কোর্সে শর্তের প্রকার দেখুন।

অবস্থা

#df

একটি ডিসিশন ট্রিতে , যে কোনো নোড যা একটি অভিব্যক্তিকে মূল্যায়ন করে। উদাহরণস্বরূপ, একটি সিদ্ধান্ত গাছের নিম্নলিখিত অংশে দুটি শর্ত রয়েছে:

দুটি শর্ত সমন্বিত একটি সিদ্ধান্ত গাছ: (x > 0) এবং           (y > 0)।

একটি শর্তকে বিভক্ত বা পরীক্ষাও বলা হয়।

পাতার সাথে বৈপরীত্য অবস্থা।

আরও দেখুন:

আরও তথ্যের জন্য ডিসিশন ফরেস্ট কোর্সে শর্তের প্রকার দেখুন।

ডি

সিদ্ধান্ত বন

#df

একাধিক সিদ্ধান্ত গাছ থেকে তৈরি একটি মডেল। একটি সিদ্ধান্ত বন তার সিদ্ধান্ত গাছের পূর্বাভাস একত্রিত করে একটি ভবিষ্যদ্বাণী করে। জনপ্রিয় ধরনের সিদ্ধান্ত বনের মধ্যে রয়েছে এলোমেলো বন এবং গ্রেডিয়েন্ট বুস্টেড গাছ

আরও তথ্যের জন্য ডিসিশন ফরেস্ট কোর্সের সিদ্ধান্ত বন বিভাগটি দেখুন।

সিদ্ধান্ত গাছ

#df

ক্রমানুসারে সংগঠিত শর্ত এবং পাতার একটি সেটের সমন্বয়ে একটি তত্ত্বাবধানে শিক্ষার মডেল। উদাহরণস্বরূপ, নিম্নলিখিত একটি সিদ্ধান্ত গাছ:

চারটি শর্তের সমন্বয়ে একটি সিদ্ধান্ত গাছ সাজানো হয়েছে           অনুক্রমিকভাবে, যা পাঁচটি পাতার দিকে নিয়ে যায়।

এনট্রপি

#df
#মেট্রিক

তথ্য তত্ত্বে , সম্ভাব্যতা বন্টন কতটা অপ্রত্যাশিত তার বর্ণনা। বিকল্পভাবে, প্রতিটি উদাহরণে কতটা তথ্য রয়েছে তা হিসাবে এনট্রপিকেও সংজ্ঞায়িত করা হয়। একটি ডিস্ট্রিবিউশনের সর্বোচ্চ সম্ভাব্য এনট্রপি থাকে যখন একটি র্যান্ডম ভেরিয়েবলের সমস্ত মান সমানভাবে সম্ভব হয়।

দুটি সম্ভাব্য মান "0" এবং "1" সহ একটি সেটের এনট্রপি (উদাহরণস্বরূপ, একটি বাইনারি শ্রেণিবিন্যাস সমস্যায় লেবেল) নিম্নলিখিত সূত্র রয়েছে:

H = -p লগ p - q লগ q = -p লগ p - (1-p) * লগ (1-p)

কোথায়:

  • H হল এনট্রপি।
  • p হল "1" উদাহরণের ভগ্নাংশ।
  • q হল "0" উদাহরণের ভগ্নাংশ। উল্লেখ্য যে q = (1 - p)
  • লগ সাধারণত লগ 2 হয়। এই ক্ষেত্রে, এনট্রপি ইউনিট একটি বিট।

উদাহরণস্বরূপ, নিম্নলিখিত অনুমান করুন:

  • 100টি উদাহরণে "1" মান রয়েছে
  • 300টি উদাহরণে "0" মান রয়েছে

অতএব, এনট্রপি মান হল:

  • p = 0.25
  • q = 0.75
  • H = (-0.25) লগ 2 (0.25) - (0.75) লগ 2 (0.75) = 0.81 বিট প্রতি উদাহরণ

একটি সেট যা পুরোপুরি ভারসাম্যপূর্ণ (উদাহরণস্বরূপ, 200 "0" s এবং 200 "1"s) প্রতি উদাহরণে 1.0 বিট এনট্রপি থাকবে। একটি সেট আরও ভারসাম্যহীন হওয়ার সাথে সাথে এর এনট্রপি 0.0 এর দিকে চলে যায়।

ডিসিশন ট্রিতে , এনট্রপি শ্রেণীবিভাগের সিদ্ধান্ত গাছের বৃদ্ধির সময় বিভাজনকারীকে শর্ত নির্বাচন করতে সাহায্য করার জন্য তথ্য অর্জন করতে সাহায্য করে।

এনট্রপির সাথে তুলনা করুন:

এনট্রপিকে প্রায়শই শ্যাননের এনট্রপি বলা হয়।

আরও তথ্যের জন্য ডিসিশন ফরেস্ট কোর্সে সংখ্যাসূচক বৈশিষ্ট্য সহ বাইনারি শ্রেণীবিভাগের জন্য সঠিক স্প্লিটার দেখুন।

বৈশিষ্ট্যের গুরুত্ব

#df
#মেট্রিক

পরিবর্তনশীল গুরুত্বের প্রতিশব্দ।

জি

জিনি অপবিত্রতা

#df
#মেট্রিক

এনট্রপির অনুরূপ একটি মেট্রিক। স্প্লিটাররা শ্রেণীবিভাগের সিদ্ধান্ত গাছের শর্ত রচনা করতে জিনি অশুদ্ধতা বা এনট্রপি থেকে প্রাপ্ত মান ব্যবহার করে। তথ্য লাভ এনট্রপি থেকে উদ্ভূত হয়। জিনি অপবিত্রতা থেকে প্রাপ্ত মেট্রিকের জন্য কোন সার্বজনীনভাবে স্বীকৃত সমতুল্য শব্দ নেই; যাইহোক, এই নামহীন মেট্রিক তথ্য লাভের মতোই গুরুত্বপূর্ণ।

জিনি অপবিত্রতাকে জিনি ইনডেক্স বা সহজভাবে জিনিও বলা হয়।

গ্রেডিয়েন্ট বুস্টেড (সিদ্ধান্ত) গাছ (GBT)

#df

এক ধরনের সিদ্ধান্ত বন যেখানে:

আরও তথ্যের জন্য ডিসিশন ফরেস্ট কোর্সে গ্রেডিয়েন্ট বুস্টেড ডিসিশন ট্রি দেখুন।

গ্রেডিয়েন্ট বুস্টিং

#df

একটি প্রশিক্ষণ অ্যালগরিদম যেখানে দুর্বল মডেলগুলিকে একটি শক্তিশালী মডেলের গুণমান (ক্ষতি কমাতে) পুনরাবৃত্তিমূলকভাবে উন্নত করতে প্রশিক্ষণ দেওয়া হয়। উদাহরণস্বরূপ, একটি দুর্বল মডেল একটি রৈখিক বা ছোট সিদ্ধান্ত গাছ মডেল হতে পারে। শক্তিশালী মডেলটি পূর্বে প্রশিক্ষিত সমস্ত দুর্বল মডেলের সমষ্টি হয়ে যায়।

গ্রেডিয়েন্ট বুস্টিংয়ের সহজতম ফর্মে, প্রতিটি পুনরাবৃত্তিতে, একটি দুর্বল মডেলকে শক্তিশালী মডেলের ক্ষতি গ্রেডিয়েন্টের পূর্বাভাস দেওয়ার জন্য প্রশিক্ষণ দেওয়া হয়। তারপর, গ্রেডিয়েন্ট ডিসেন্টের অনুরূপ ভবিষ্যদ্বাণীকৃত গ্রেডিয়েন্ট বিয়োগ করে শক্তিশালী মডেলের আউটপুট আপডেট করা হয়।

$$F_{0} = 0$$$$F_{i+1} = F_i - \xi f_i $$

কোথায়:

  • $F_{0}$ হল শুরুর শক্তিশালী মডেল।
  • $F_{i+1}$ হল পরবর্তী শক্তিশালী মডেল৷
  • $F_{i}$ হল বর্তমান শক্তিশালী মডেল।
  • $\xi$ হল 0.0 এবং 1.0 এর মধ্যে একটি মান যাকে সংকোচন বলা হয়, যা গ্রেডিয়েন্ট ডিসেন্টে শেখার হারের সাথে সাদৃশ্যপূর্ণ।
  • $f_{i}$ হল দুর্বল মডেল যা $F_{i}$ এর ক্ষতি গ্রেডিয়েন্টের পূর্বাভাস দিতে প্রশিক্ষিত।

গ্রেডিয়েন্ট বুস্টিংয়ের আধুনিক বৈচিত্রগুলি তাদের গণনায় ক্ষতির দ্বিতীয় ডেরিভেটিভ (হেসিয়ান) অন্তর্ভুক্ত করে।

ডিসিশন ট্রি সাধারণত গ্রেডিয়েন্ট বুস্টিংয়ে দুর্বল মডেল হিসেবে ব্যবহৃত হয়। গ্রেডিয়েন্ট বুস্টেড (সিদ্ধান্ত) গাছ দেখুন।

আমি

অনুমান পথ

#df

একটি সিদ্ধান্ত গাছে , অনুমান করার সময়, একটি নির্দিষ্ট উদাহরণ মূল থেকে অন্য অবস্থার দিকে নিয়ে যায়, একটি পাতা দিয়ে শেষ হয়। উদাহরণস্বরূপ, নিম্নলিখিত সিদ্ধান্ত গাছে, ঘন তীরগুলি নিম্নলিখিত বৈশিষ্ট্য মানগুলির সাথে একটি উদাহরণের জন্য অনুমান পথ দেখায়:

  • x = 7
  • y = 12
  • z = -3

নীচের চিত্রের অনুমান পথটি পাতায় পৌঁছানোর আগে তিনটি অবস্থার মধ্য দিয়ে ভ্রমণ করে ( Zeta )।

চারটি শর্ত এবং পাঁচটি পাতা নিয়ে গঠিত একটি সিদ্ধান্ত গাছ।           মূল অবস্থা হল (x > 0)। যেহেতু উত্তরটি হ্যাঁ, the           অনুমান পথ মূল থেকে পরবর্তী অবস্থায় (y > 0) ভ্রমণ করে।           যেহেতু উত্তরটি হ্যাঁ, অনুমান পথটি তারপরে ভ্রমণ করে           পরবর্তী শর্ত (z > 0)। যেহেতু উত্তরটি না, অনুমান পথ           এর টার্মিনাল নোডে ভ্রমণ করে, যা পাতা (জেটা)।

তিনটি পুরু তীর অনুমান পথ দেখায়।

আরও তথ্যের জন্য ডিসিশন ফরেস্ট কোর্সে সিদ্ধান্ত গাছ দেখুন।

তথ্য লাভ

#df
#মেট্রিক

সিদ্ধান্ত বনে , একটি নোডের এনট্রপি এবং ওজনযুক্ত (উদাহরণগুলির সংখ্যা অনুসারে) এর সন্তান নোডগুলির এনট্রপির যোগফলের মধ্যে পার্থক্য। একটি নোডের এনট্রপি হল সেই নোডের উদাহরণগুলির এনট্রপি।

উদাহরণস্বরূপ, নিম্নলিখিত এনট্রপি মান বিবেচনা করুন:

  • প্যারেন্ট নোডের এনট্রপি = 0.6
  • 16টি প্রাসঙ্গিক উদাহরণ সহ একটি চাইল্ড নোডের এনট্রপি = 0.2
  • 24টি প্রাসঙ্গিক উদাহরণ সহ অন্য চাইল্ড নোডের এনট্রপি = 0.1

সুতরাং 40% উদাহরণ একটি চাইল্ড নোডে এবং 60% অন্য চাইল্ড নোডে রয়েছে। অতএব:

  • চাইল্ড নোডের ওজনযুক্ত এনট্রপি যোগফল = (0.4 * 0.2) + (0.6 * 0.1) = 0.14

সুতরাং, তথ্য লাভ হল:

  • তথ্য লাভ = প্যারেন্ট নোডের এনট্রপি - চাইল্ড নোডের ওজনযুক্ত এনট্রপি যোগফল
  • তথ্য লাভ = 0.6 - 0.14 = 0.46

বেশিরভাগ বিভাজনকারী এমন পরিস্থিতি তৈরি করতে চায় যা সর্বাধিক তথ্য লাভ করে।

ইন-সেট অবস্থা

#df

একটি সিদ্ধান্ত গাছে , একটি শর্ত যা আইটেমগুলির একটি সেটে একটি আইটেমের উপস্থিতির জন্য পরীক্ষা করে। উদাহরণস্বরূপ, নিম্নলিখিত একটি ইন-সেট শর্ত:

  house-style in [tudor, colonial, cape]

অনুমানের সময়, যদি ঘর-শৈলী বৈশিষ্ট্যের মান tudor বা colonial বা cape হয়, তাহলে এই শর্তটি হ্যাঁ মূল্যায়ন করে। যদি ঘর-শৈলী বৈশিষ্ট্যের মান অন্য কিছু হয় (উদাহরণস্বরূপ, ranch ), তাহলে এই শর্তটি নং-এ মূল্যায়ন করে।

ইন-সেট শর্তগুলি সাধারণত এক-হট এনকোডেড বৈশিষ্ট্যগুলি পরীক্ষা করে এমন অবস্থার তুলনায় আরও দক্ষ সিদ্ধান্তের গাছের দিকে নিয়ে যায়।

এল

পাতা

#df

একটি সিদ্ধান্ত গাছের কোন শেষ বিন্দু. একটি শর্তের বিপরীতে, একটি পাতা একটি পরীক্ষা সঞ্চালন করে না। বরং, একটি পাতা একটি সম্ভাব্য ভবিষ্যদ্বাণী। একটি পাতাও একটি অনুমান পথের টার্মিনাল নোড

উদাহরণস্বরূপ, নিম্নলিখিত সিদ্ধান্ত গাছে তিনটি পাতা রয়েছে:

দুটি শর্ত সহ একটি সিদ্ধান্ত গাছ যা তিনটি পাতার দিকে পরিচালিত করে।

আরও তথ্যের জন্য ডিসিশন ফরেস্ট কোর্সে সিদ্ধান্ত গাছ দেখুন।

এন

নোড (সিদ্ধান্ত গাছ)

#df

একটি সিদ্ধান্ত গাছ , কোন অবস্থা বা পাতা .

দুটি শর্ত এবং তিনটি পাতা সহ একটি সিদ্ধান্ত গাছ।

আরও তথ্যের জন্য ডিসিশন ফরেস্ট কোর্সে সিদ্ধান্ত গাছ দেখুন।

অ-বাইনারী অবস্থা

#df

দুটি সম্ভাব্য ফলাফল সমন্বিত একটি শর্ত । উদাহরণস্বরূপ, নিম্নলিখিত নন-বাইনারী শর্তে তিনটি সম্ভাব্য ফলাফল রয়েছে:

একটি শর্ত (number_of_legs =?) যা তিনটি সম্ভবের দিকে নিয়ে যায়           ফলাফল একটি ফলাফল (number_of_legs = 8) একটি পাতার দিকে নিয়ে যায়           নাম মাকড়সা। একটি দ্বিতীয় ফলাফল (number_of_legs = 4) বাড়ে           কুকুর নামের একটি পাতা। একটি তৃতীয় ফলাফল (number_of_legs = 2) বাড়ে           পেঙ্গুইন নামের একটি পাতা।

আরও তথ্যের জন্য ডিসিশন ফরেস্ট কোর্সে শর্তের প্রকার দেখুন।

তির্যক অবস্থা

#df

একটি সিদ্ধান্ত গাছে , একটি শর্ত যাতে একাধিক বৈশিষ্ট্য জড়িত থাকে। উদাহরণস্বরূপ, যদি উচ্চতা এবং প্রস্থ উভয়ই বৈশিষ্ট্য হয়, তাহলে নিম্নোক্ত একটি তির্যক অবস্থা:

  height > width

অক্ষ-সারিবদ্ধ অবস্থার সাথে বৈসাদৃশ্য।

আরও তথ্যের জন্য ডিসিশন ফরেস্ট কোর্সে শর্তের প্রকার দেখুন।

ব্যাগের বাইরে মূল্যায়ন (OOB মূল্যায়ন)

#df

সিদ্ধান্ত গাছের প্রশিক্ষণের সময় যে উদাহরণগুলি ব্যবহার করা হয়নি তার বিরুদ্ধে প্রতিটি সিদ্ধান্ত গাছ পরীক্ষা করে একটি সিদ্ধান্ত বনের গুণমান মূল্যায়নের একটি প্রক্রিয়া। উদাহরণস্বরূপ, নিম্নলিখিত চিত্রে, লক্ষ্য করুন যে সিস্টেমটি প্রতিটি সিদ্ধান্ত গাছকে প্রায় দুই-তৃতীয়াংশ উদাহরণের উপর প্রশিক্ষণ দেয় এবং তারপরে উদাহরণগুলির অবশিষ্ট এক-তৃতীয়াংশের বিপরীতে মূল্যায়ন করে।

তিনটি সিদ্ধান্ত গাছ নিয়ে গঠিত একটি সিদ্ধান্ত বন।           একটি সিদ্ধান্ত গাছ উদাহরণের দুই-তৃতীয়াংশের উপর প্রশিক্ষণ দেয়           এবং তারপর OOB মূল্যায়নের জন্য অবশিষ্ট এক-তৃতীয়াংশ ব্যবহার করে।           একটি দ্বিতীয় সিদ্ধান্ত গাছ একটি ভিন্ন দুই-তৃতীয়াংশ উপর ট্রেন           পূর্ববর্তী সিদ্ধান্ত গাছ তুলনায় উদাহরণ, এবং তারপর           OOB মূল্যায়নের জন্য এর চেয়ে ভিন্ন এক-তৃতীয়াংশ ব্যবহার করে           পূর্ববর্তী সিদ্ধান্ত গাছ।

আউট-অফ-ব্যাগ মূল্যায়ন হল ক্রস-ভ্যালিডেশন মেকানিজমের একটি গণনাগতভাবে দক্ষ এবং রক্ষণশীল অনুমান। ক্রস-ভ্যালিডেশনে, প্রতিটি ক্রস-ভ্যালিডেশন রাউন্ডের জন্য একটি মডেল প্রশিক্ষিত হয় (উদাহরণস্বরূপ, 10টি মডেলকে 10-গুণ ক্রস-ভ্যালিডেশনে প্রশিক্ষণ দেওয়া হয়)। OOB মূল্যায়নের সাথে, একটি একক মডেল প্রশিক্ষিত হয়। যেহেতু ব্যাগিং প্রশিক্ষণের সময় প্রতিটি গাছ থেকে কিছু ডেটা আটকে রাখে, OOB মূল্যায়ন আনুমানিক ক্রস-বৈধকরণের জন্য সেই ডেটা ব্যবহার করতে পারে।

আরও তথ্যের জন্য ডিসিশন ফরেস্ট কোর্সে ব্যাগের বাইরে মূল্যায়ন দেখুন।

পৃ

পরিবর্তনশীল গুরুত্ব

#df
#মেট্রিক

পরিবর্তনশীল গুরুত্বের একটি প্রকার যা বৈশিষ্ট্যের মানগুলিকে অনুমতি দেওয়ার পরে একটি মডেলের ভবিষ্যদ্বাণী ত্রুটির বৃদ্ধিকে মূল্যায়ন করে৷ পারমুটেশন পরিবর্তনশীল গুরুত্ব একটি মডেল-স্বাধীন মেট্রিক।

আর

এলোমেলো বন

#df

সিদ্ধান্ত গাছের একটি দল যেখানে প্রতিটি সিদ্ধান্ত গাছকে একটি নির্দিষ্ট এলোমেলো শব্দের সাথে প্রশিক্ষণ দেওয়া হয়, যেমন ব্যাগিং

এলোমেলো বন এক ধরনের সিদ্ধান্ত বন

আরও তথ্যের জন্য ডিসিশন ফরেস্ট কোর্সে র্যান্ডম ফরেস্ট দেখুন।

মূল

#df

একটি সিদ্ধান্ত গাছে শুরু নোড (প্রথম শর্ত )। নিয়ম অনুসারে, ডায়াগ্রামগুলি সিদ্ধান্ত গাছের শীর্ষে মূল স্থাপন করে। যেমন:

দুটি শর্ত এবং তিনটি পাতা সহ একটি সিদ্ধান্ত গাছ। দ           শুরুর অবস্থা (x > 2) হল রুট।

এস

প্রতিস্থাপন সহ নমুনা

#df

প্রার্থী আইটেমগুলির একটি সেট থেকে আইটেম বাছাই করার একটি পদ্ধতি যেখানে একই আইটেম একাধিকবার বাছাই করা যেতে পারে। "প্রতিস্থাপন সহ" বাক্যাংশটির অর্থ হল প্রতিটি নির্বাচনের পরে, নির্বাচিত আইটেমটি প্রার্থীর আইটেমগুলির পুলে ফিরিয়ে দেওয়া হয়। বিপরীত পদ্ধতি, প্রতিস্থাপন ছাড়াই নমুনা নেওয়ার মানে হল যে একজন প্রার্থী আইটেম শুধুমাত্র একবার বাছাই করা যেতে পারে।

উদাহরণস্বরূপ, নিম্নলিখিত ফলের সেট বিবেচনা করুন:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

ধরুন যে সিস্টেমটি এলোমেলোভাবে fig প্রথম আইটেম হিসাবে বেছে নিয়েছে। যদি প্রতিস্থাপনের সাথে স্যাম্পলিং ব্যবহার করা হয়, তাহলে সিস্টেম নিম্নলিখিত সেট থেকে দ্বিতীয় আইটেমটি বেছে নেয়:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

হ্যাঁ, এটি আগের মতো একই সেট, তাই সিস্টেমটি সম্ভাব্যভাবে আবার fig বাছাই করতে পারে।

প্রতিস্থাপন ছাড়া নমুনা ব্যবহার করলে, একবার বাছাই করা হলে, একটি নমুনা আবার বাছাই করা যাবে না। উদাহরণস্বরূপ, যদি সিস্টেম এলোমেলোভাবে প্রথম নমুনা হিসাবে fig বাছাই করে, তাহলে fig আবার বাছাই করা যাবে না। অতএব, সিস্টেম নিম্নলিখিত (হ্রাস) সেট থেকে দ্বিতীয় নমুনা বাছাই করে:

fruit = {kiwi, apple, pear, cherry, lime, mango}

সংকোচন

#df

গ্রেডিয়েন্ট বুস্টিংয়ের একটি হাইপারপ্যারামিটার যা ওভারফিটিং নিয়ন্ত্রণ করে। গ্রেডিয়েন্ট বুস্টিংয়ে সংকোচন গ্রেডিয়েন্ট ডিসেন্টে শেখার হারের সাথে সাদৃশ্যপূর্ণ। সংকোচন হল 0.0 এবং 1.0 এর মধ্যে একটি দশমিক মান। একটি কম সংকোচন মান একটি বৃহত্তর সংকোচন মানের চেয়ে ওভারফিটিং কমিয়ে দেয়।

বিভক্ত

#df

একটি সিদ্ধান্ত গাছে , একটি শর্তের অন্য নাম।

স্প্লিটার

#df

একটি সিদ্ধান্ত গাছ প্রশিক্ষণের সময়, প্রতিটি নোডে সর্বোত্তম অবস্থা খোঁজার জন্য দায়ী রুটিন (এবং অ্যালগরিদম)।

টি

পরীক্ষা

#df

একটি সিদ্ধান্ত গাছে , একটি শর্তের অন্য নাম।

থ্রেশহোল্ড (সিদ্ধান্ত গাছের জন্য)

#df

একটি অক্ষ-সারিবদ্ধ অবস্থায় , একটি বৈশিষ্ট্যের সাথে যে মান তুলনা করা হচ্ছে। উদাহরণস্বরূপ, 75 হল নিম্নোক্ত অবস্থায় থ্রেশহোল্ড মান:

grade >= 75

আরও তথ্যের জন্য ডিসিশন ফরেস্ট কোর্সে সংখ্যাসূচক বৈশিষ্ট্য সহ বাইনারি শ্রেণীবিভাগের জন্য সঠিক স্প্লিটার দেখুন।

ভি

পরিবর্তনশীল গুরুত্ব

#df
#মেট্রিক

স্কোরের একটি সেট যা মডেলের প্রতিটি বৈশিষ্ট্যের আপেক্ষিক গুরুত্ব নির্দেশ করে।

উদাহরণস্বরূপ, একটি সিদ্ধান্ত গাছ বিবেচনা করুন যা বাড়ির দাম অনুমান করে। ধরুন এই সিদ্ধান্ত গাছ তিনটি বৈশিষ্ট্য ব্যবহার করে: আকার, বয়স এবং শৈলী। যদি তিনটি বৈশিষ্ট্যের জন্য পরিবর্তনশীল গুরুত্বের একটি সেট গণনা করা হয় {size=5.8, age=2.5, style=4.7}, তাহলে বয়স বা শৈলীর চেয়ে আকার সিদ্ধান্ত গাছের জন্য বেশি গুরুত্বপূর্ণ।

বিভিন্ন পরিবর্তনশীল গুরুত্বের মেট্রিক্স বিদ্যমান, যা মডেলের বিভিন্ন দিক সম্পর্কে এমএল বিশেষজ্ঞদের অবহিত করতে পারে।

ডব্লিউ

ভিড়ের জ্ঞান

#df

ধারণা যে মানুষের একটি বৃহৎ গোষ্ঠীর মতামত বা অনুমানের গড় প্রায়ই আশ্চর্যজনকভাবে ভাল ফলাফল দেয়। উদাহরণস্বরূপ, এমন একটি খেলা বিবেচনা করুন যেখানে লোকেরা একটি বড় জারে প্যাক করা জেলি বিনের সংখ্যা অনুমান করে। যদিও বেশিরভাগ ব্যক্তিগত অনুমান ভুল হবে, তবে সমস্ত অনুমানের গড় পরীক্ষামূলকভাবে জারে জেলি বিনের প্রকৃত সংখ্যার আশ্চর্যজনকভাবে কাছাকাছি দেখানো হয়েছে।

Ensembles হল ভিড়ের জ্ঞানের একটি সফটওয়্যার এনালগ। এমনকি যদি পৃথক মডেলগুলি অত্যন্ত ভুল ভবিষ্যদ্বাণী করে, তবে অনেক মডেলের ভবিষ্যদ্বাণীগুলির গড় প্রায়ই আশ্চর্যজনকভাবে ভাল ভবিষ্যদ্বাণী তৈরি করে৷ উদাহরণস্বরূপ, যদিও একটি পৃথক সিদ্ধান্ত গাছ খারাপ ভবিষ্যদ্বাণী করতে পারে, একটি সিদ্ধান্ত বন প্রায়ই খুব ভাল ভবিষ্যদ্বাণী করে।