أشجار القرارات: تحقق من فهمك

تطلب منك هذه الصفحة الإجابة عن سلسلة من التمارين التي تتضمّن خيارات متعدّدة حول المادة التي تمت مناقشتها في وحدة "تدريب أشجار القرارات".

السؤال 1

ما هي تأثيرات استبدال الميزات الرقمية بقيمتها السالبة (على سبيل المثال، تغيير القيمة +8 إلى -8) باستخدام أداة التقسيم الرقمية الدقيقة؟
سيتم تعلُّم الشروط نفسها، ولن يتمّ تبديل سوى الأطفال الإيجابيين/السلبيين.
سيكون هيكل شجرة القرار مختلفًا تمامًا.
سيتم تعلُّم شروط مختلفة، ولكن سيظل الإطار العام لشجرة القرارات كما هو.

السؤال 2

ما هي الإجابتان اللتان تصفان بشكل أفضل تأثير اختبار نصف (يتم اختياره عشوائيًا) فقط من قيم الحدّ الأدنى المُحتمَلة في X؟
ستكون دقة الاختبار في شجرة القرار النهائية أقل.
سيكون اكتساب المعلومات أقل أو مساويًا.
سيكون اكتساب المعلومات أعلى أو مساويًا.
لن تحقّق شجرة القرار النهائية دقة تطبيق أفضل.

السؤال 3

ماذا سيحدث إذا كان منحنى "مكاسب المعلومات" في مقابل "الحدّ الأدنى" يتضمّن قيمًا قصوى محلية متعددة؟
ستختار الخوارزمية الحد الأقصى العام.
ستختار الخوارزمية القيم القصوى المحلية ذات القيمة القصوى للحدّ الأدنى.
من المستحيل أن يكون هناك قيم قصوى محلية متعددة.

السؤال 4

احتساب معلومات الاستفادة من التقسيم التالي:

العقدة عدد الأمثلة الموجبة عدد الأمثلة السلبية
العقدة الرئيسية 10 6
الطفل الأول 8 2
الطفل الثاني 2 4
# Positive label distribution
p_parent = 10 / (10+6) # = 0.625
p_child_1 = 8 / (8+2) # = 0.8
p_child_2 = 2 / (2+4) # = 0.3333333

# Entropy
h_parent = -p_parent * log(p_parent) - (1-p_parent) * log(1-p_parent) # = 0.6615632
h_child_1 = ... # = 0.5004024
h_child_2 = ... # = 0.6365142

# Ratio of example in the child 1
s = (8+2)/(10+6)
f_final = s * h_child_1 + (1-s) * h_child_2 # = 0.5514443

information_gain = h_parent - f_final # = 0.1101189