সিদ্ধান্ত গাছ: আপনার বোঝার পরীক্ষা করুন

এই পৃষ্ঠাটি আপনাকে "ট্রেনিং ডিসিশন ট্রিস" ইউনিটে আলোচিত উপাদান সম্পর্কে একাধিক পছন্দের অনুশীলনের একটি সিরিজের উত্তর দেওয়ার জন্য চ্যালেঞ্জ করে।

প্রশ্ন 1

সংখ্যাসূচক বৈশিষ্ট্যগুলিকে তাদের নেতিবাচক মানগুলির সাথে প্রতিস্থাপনের প্রভাবগুলি কী কী (উদাহরণস্বরূপ, মান +8 থেকে -8 পরিবর্তন করা) সঠিক সংখ্যাসূচক স্প্লিটার দিয়ে?
সিদ্ধান্ত গাছের গঠন সম্পূর্ণ ভিন্ন হবে।
বিভিন্ন শর্ত শেখা হবে, কিন্তু সিদ্ধান্ত গাছের সামগ্রিক গঠন একই থাকবে।
একই অবস্থা শেখা হবে; শুধুমাত্র ইতিবাচক/নেতিবাচক শিশুদের সুইচ করা হবে।

প্রশ্ন 2

কোন দুটি উত্তর X-এ প্রার্থী থ্রেশহোল্ড মানের মাত্র অর্ধেক (এলোমেলোভাবে নির্বাচিত) পরীক্ষার প্রভাবকে সর্বোত্তমভাবে বর্ণনা করে?
চূড়ান্ত সিদ্ধান্ত গাছের আরও খারাপ পরীক্ষার নির্ভুলতা থাকবে।
তথ্য লাভ কম বা সমান হবে।
চূড়ান্ত সিদ্ধান্ত গাছের কোন ভাল প্রশিক্ষণ নির্ভুলতা থাকবে না।
তথ্য লাভ বেশি বা সমান হবে।

প্রশ্ন 3

কি হবে যদি "তথ্য লাভ" বনাম "থ্রেশহোল্ড" বক্ররেখার একাধিক স্থানীয় ম্যাক্সিমা থাকে?
অ্যালগরিদম ক্ষুদ্রতম থ্রেশহোল্ড মান সহ স্থানীয় ম্যাক্সিমা নির্বাচন করবে।
অ্যালগরিদম বিশ্বব্যাপী সর্বোচ্চ নির্বাচন করবে।
একাধিক স্থানীয় ম্যাক্সিমা থাকা অসম্ভব।

প্রশ্ন 4

নিম্নলিখিত বিভাজনের তথ্য লাভ গণনা করুন:

নোড # ইতিবাচক উদাহরণ # নেতিবাচক উদাহরণ
প্যারেন্ট নোড 10 6
প্রথম সন্তান 8 2
দ্বিতীয় সন্তান 2 4
# Positive label distribution
p_parent = 10 / (10+6) # = 0.625
p_child_1 = 8 / (8+2) # = 0.8
p_child_2 = 2 / (2+4) # = 0.3333333

# Entropy
h_parent = -p_parent * log(p_parent) - (1-p_parent) * log(1-p_parent) # = 0.6615632
h_child_1 = ... # = 0.5004024
h_child_2 = ... # = 0.6365142

# Ratio of example in the child 1
s = (8+2)/(10+6)
f_final = s * h_child_1 + (1-s) * h_child_2 # = 0.5514443

information_gain = h_parent - f_final # = 0.1101189