أشجار القرارات: تحقق من فهمك
تطلب منك هذه الصفحة الإجابة عن سلسلة من التمارين التي تتضمّن خيارات متعدّدة
حول المادة التي تمت مناقشتها في وحدة "تدريب أشجار القرارات".
السؤال 1
ما هي تأثيرات استبدال الميزات الرقمية بقيمتها
السالبة (على سبيل المثال، تغيير القيمة +8 إلى -8) باستخدام
أداة التقسيم الرقمية الدقيقة؟
سيتم تعلُّم الشروط نفسها، ولن يتمّ تبديل سوى
الأطفال الإيجابيين/السلبيين.
رائع.
سيكون هيكل شجرة القرار مختلفًا تمامًا.
سيكون بنية شجرة القرار متماثلةً إلى حدٍ كبير. ومع ذلك، ستتغيّر الشروط.
سيتم تعلُّم شروط مختلفة، ولكن سيظل الإطار العام
لشجرة القرارات كما هو.
في حال تغيّر الميزات، ستتغيّر الشروط.
السؤال 2
ما هي الإجابتان اللتان تصفان بشكل أفضل تأثير اختبار نصف
(يتم اختياره عشوائيًا) فقط من قيم الحدّ الأدنى المُحتمَلة في X؟
ستكون دقة الاختبار في شجرة القرار النهائية أقل.
سيكون اكتساب المعلومات أقل أو مساويًا.
أحسنت
سيكون اكتساب المعلومات أعلى أو مساويًا.
لن تحقّق شجرة القرار النهائية دقة تطبيق أفضل.
أحسنت
السؤال 3
ماذا سيحدث إذا كان منحنى "مكاسب المعلومات" في مقابل "الحدّ الأدنى"
يتضمّن قيمًا قصوى محلية متعددة؟
ستختار الخوارزمية الحد الأقصى العام.
أحسنت
ستختار الخوارزمية القيم القصوى المحلية ذات القيمة القصوى
للحدّ الأدنى.
من المستحيل أن يكون هناك قيم قصوى محلية متعددة.
من الممكن أن تظهر قيم قصوى محلية متعددة.
السؤال 4
احتساب معلومات الاستفادة من التقسيم التالي:
العقدة | عدد الأمثلة الموجبة | عدد الأمثلة
السلبية |
العقدة الرئيسية | 10 | 6 |
الطفل الأول | 8 | 2 |
الطفل الثاني | 2 | 4 |
انقر على الرمز للاطّلاع على الإجابة.
# Positive label distribution
p_parent = 10 / (10+6) # = 0.625
p_child_1 = 8 / (8+2) # = 0.8
p_child_2 = 2 / (2+4) # = 0.3333333
# Entropy
h_parent = -p_parent * log(p_parent) - (1-p_parent) * log(1-p_parent) # = 0.6615632
h_child_1 = ... # = 0.5004024
h_child_2 = ... # = 0.6365142
# Ratio of example in the child 1
s = (8+2)/(10+6)
f_final = s * h_child_1 + (1-s) * h_child_2 # = 0.5514443
information_gain = h_parent - f_final # = 0.1101189
إنّ محتوى هذه الصفحة مرخّص بموجب ترخيص Creative Commons Attribution 4.0 ما لم يُنصّ على خلاف ذلك، ونماذج الرموز مرخّصة بموجب ترخيص Apache 2.0. للاطّلاع على التفاصيل، يُرجى مراجعة سياسات موقع Google Developers. إنّ Java هي علامة تجارية مسجَّلة لشركة Oracle و/أو شركائها التابعين.
تاريخ التعديل الأخير: 2025-02-25 (حسب التوقيت العالمي المتفَّق عليه)
[null,null,["تاريخ التعديل الأخير: 2025-02-25 (حسب التوقيت العالمي المتفَّق عليه)"],[[["This webpage presents a series of multiple-choice exercises focused on evaluating your understanding of decision tree training concepts."],["The exercises cover topics such as the impact of feature manipulation on decision tree structure, the effects of altering threshold selection strategies, and the implications of multiple local maxima in information gain curves."],["One question requires calculating information gain using entropy and provided data, demonstrating the practical application of decision tree principles."]]],[]]