সিদ্ধান্ত গাছ: আপনার বোঝার পরীক্ষা করুন

এই পৃষ্ঠাটি আপনাকে "ট্রেনিং ডিসিশন ট্রিস" ইউনিটে আলোচিত উপাদান সম্পর্কে একাধিক পছন্দের অনুশীলনের একটি সিরিজের উত্তর দেওয়ার জন্য চ্যালেঞ্জ করে।

প্রশ্ন 1

সংখ্যাসূচক বৈশিষ্ট্যগুলিকে তাদের নেতিবাচক মানগুলির সাথে প্রতিস্থাপনের প্রভাবগুলি কী কী (উদাহরণস্বরূপ, মান +8 থেকে -8 পরিবর্তন করা) সঠিক সংখ্যাসূচক স্প্লিটার দিয়ে?
সিদ্ধান্ত গাছের গঠন সম্পূর্ণ ভিন্ন হবে।
একই অবস্থা শেখা হবে; শুধুমাত্র ইতিবাচক/নেতিবাচক শিশুদের সুইচ করা হবে।
বিভিন্ন শর্ত শেখা হবে, কিন্তু সিদ্ধান্ত গাছের সামগ্রিক গঠন একই থাকবে।

প্রশ্ন 2

কোন দুটি উত্তর X-এ প্রার্থী থ্রেশহোল্ড মানের মাত্র অর্ধেক (এলোমেলোভাবে নির্বাচিত) পরীক্ষার প্রভাবকে সর্বোত্তমভাবে বর্ণনা করে?
চূড়ান্ত সিদ্ধান্ত গাছের আরও খারাপ পরীক্ষার নির্ভুলতা থাকবে।
তথ্য লাভ কম বা সমান হবে।
তথ্য লাভ বেশি বা সমান হবে।
চূড়ান্ত সিদ্ধান্ত গাছের কোন ভাল প্রশিক্ষণ নির্ভুলতা থাকবে না।

প্রশ্ন 3

কি হবে যদি "তথ্য লাভ" বনাম "থ্রেশহোল্ড" বক্ররেখার একাধিক স্থানীয় ম্যাক্সিমা থাকে?
অ্যালগরিদম বিশ্বব্যাপী সর্বোচ্চ নির্বাচন করবে।
অ্যালগরিদম ক্ষুদ্রতম থ্রেশহোল্ড মান সহ স্থানীয় ম্যাক্সিমা নির্বাচন করবে।
একাধিক স্থানীয় ম্যাক্সিমা থাকা অসম্ভব।

প্রশ্ন 4

নিম্নলিখিত বিভাজনের তথ্য লাভ গণনা করুন:

নোড # ইতিবাচক উদাহরণ # নেতিবাচক উদাহরণ
প্যারেন্ট নোড 10 6
প্রথম সন্তান 8 2
দ্বিতীয় সন্তান 2 4
# Positive label distribution
p_parent = 10 / (10+6) # = 0.625
p_child_1 = 8 / (8+2) # = 0.8
p_child_2 = 2 / (2+4) # = 0.3333333

# Entropy
h_parent = -p_parent * log(p_parent) - (1-p_parent) * log(1-p_parent) # = 0.6615632
h_child_1 = ... # = 0.5004024
h_child_2 = ... # = 0.6365142

# Ratio of example in the child 1
s = (8+2)/(10+6)
f_final = s * h_child_1 + (1-s) * h_child_2 # = 0.5514443

information_gain = h_parent - f_final # = 0.1101189