সিদ্ধান্ত গাছ: আপনার বোঝার পরীক্ষা করুন
এই পৃষ্ঠাটি আপনাকে "ট্রেনিং ডিসিশন ট্রিস" ইউনিটে আলোচিত উপাদান সম্পর্কে একাধিক পছন্দের অনুশীলনের একটি সিরিজের উত্তর দেওয়ার জন্য চ্যালেঞ্জ করে।
প্রশ্ন 1
সংখ্যাসূচক বৈশিষ্ট্যগুলিকে তাদের নেতিবাচক মানগুলির সাথে প্রতিস্থাপনের প্রভাবগুলি কী কী (উদাহরণস্বরূপ, মান +8 থেকে -8 পরিবর্তন করা) সঠিক সংখ্যাসূচক স্প্লিটার দিয়ে?
সিদ্ধান্ত গাছের গঠন সম্পূর্ণ ভিন্ন হবে।
সিদ্ধান্ত গাছের গঠন আসলে প্রায় একই রকম হবে। যদিও অবস্থার পরিবর্তন হবে।
একই অবস্থা শেখা হবে; শুধুমাত্র ইতিবাচক/নেতিবাচক শিশুদের সুইচ করা হবে।
ফ্যান্টাস্টিক।
বিভিন্ন শর্ত শেখা হবে, কিন্তু সিদ্ধান্ত গাছের সামগ্রিক গঠন একই থাকবে।
বৈশিষ্ট্য পরিবর্তন হলে, শর্ত পরিবর্তন হবে।
প্রশ্ন 2
কোন দুটি উত্তর X-এ প্রার্থী থ্রেশহোল্ড মানের মাত্র অর্ধেক (এলোমেলোভাবে নির্বাচিত) পরীক্ষার প্রভাবকে সর্বোত্তমভাবে বর্ণনা করে?
চূড়ান্ত সিদ্ধান্ত গাছের আরও খারাপ পরীক্ষার নির্ভুলতা থাকবে।
তথ্য লাভ কম বা সমান হবে।
ভালো হয়েছে।
তথ্য লাভ বেশি বা সমান হবে।
চূড়ান্ত সিদ্ধান্ত গাছের কোন ভাল প্রশিক্ষণ নির্ভুলতা থাকবে না।
ভালো হয়েছে।
প্রশ্ন 3
কি হবে যদি "তথ্য লাভ" বনাম "থ্রেশহোল্ড" বক্ররেখার একাধিক স্থানীয় ম্যাক্সিমা থাকে?
অ্যালগরিদম বিশ্বব্যাপী সর্বোচ্চ নির্বাচন করবে।
ভালো হয়েছে।
অ্যালগরিদম ক্ষুদ্রতম থ্রেশহোল্ড মান সহ স্থানীয় ম্যাক্সিমা নির্বাচন করবে।
একাধিক স্থানীয় ম্যাক্সিমা থাকা অসম্ভব।
একাধিক স্থানীয় ম্যাক্সিমা সম্ভব।
প্রশ্ন 4
নিম্নলিখিত বিভাজনের তথ্য লাভ গণনা করুন:
নোড | # ইতিবাচক উদাহরণ | # নেতিবাচক উদাহরণ |
---|
প্যারেন্ট নোড | 10 | 6 |
প্রথম সন্তান | 8 | 2 |
দ্বিতীয় সন্তান | 2 | 4 |
উত্তর দেখতে আইকনে ক্লিক করুন।
# Positive label distribution
p_parent = 10 / (10+6) # = 0.625
p_child_1 = 8 / (8+2) # = 0.8
p_child_2 = 2 / (2+4) # = 0.3333333
# Entropy
h_parent = -p_parent * log(p_parent) - (1-p_parent) * log(1-p_parent) # = 0.6615632
h_child_1 = ... # = 0.5004024
h_child_2 = ... # = 0.6365142
# Ratio of example in the child 1
s = (8+2)/(10+6)
f_final = s * h_child_1 + (1-s) * h_child_2 # = 0.5514443
information_gain = h_parent - f_final # = 0.1101189
অন্য কিছু উল্লেখ না করা থাকলে, এই পৃষ্ঠার কন্টেন্ট Creative Commons Attribution 4.0 License-এর অধীনে এবং কোডের নমুনাগুলি Apache 2.0 License-এর অধীনে লাইসেন্স প্রাপ্ত। আরও জানতে, Google Developers সাইট নীতি দেখুন। Java হল Oracle এবং/অথবা তার অ্যাফিলিয়েট সংস্থার রেজিস্টার্ড ট্রেডমার্ক।
2025-02-25 UTC-তে শেষবার আপডেট করা হয়েছে।
[null,null,["2025-02-25 UTC-তে শেষবার আপডেট করা হয়েছে।"],[[["This webpage presents a series of multiple-choice exercises focused on evaluating your understanding of decision tree training concepts."],["The exercises cover topics such as the impact of feature manipulation on decision tree structure, the effects of altering threshold selection strategies, and the implications of multiple local maxima in information gain curves."],["One question requires calculating information gain using entropy and provided data, demonstrating the practical application of decision tree principles."]]],[]]