درختان تصمیم: درک خود را بررسی کنید
این صفحه شما را به چالش میکشد تا به یک سری تمرینهای چند گزینهای در مورد مطالب مورد بحث در واحد "درخت تصمیم آموزشی" پاسخ دهید.
سوال 1
جایگزینی ویژگی های عددی با مقادیر منفی آنها (مثلاً تغییر مقدار 8+ به 8-) با تقسیم کننده عددی دقیق چه تاثیری دارد؟
شرایط یکسان آموخته خواهد شد. فقط بچه های مثبت/منفی عوض می شوند.
فوق العاده.
ساختار درخت تصمیم کاملا متفاوت خواهد بود.
ساختار درخت تصمیم در واقع تقریباً یکسان خواهد بود. هرچند شرایط تغییر خواهد کرد.
شرایط مختلف آموخته خواهد شد، اما ساختار کلی درخت تصمیم ثابت باقی خواهد ماند.
اگر ویژگی ها تغییر کند، شرایط تغییر خواهد کرد.
سوال 2
کدام دو پاسخ به بهترین وجه تأثیر آزمایش تنها نیمی (به طور تصادفی انتخاب شده) از مقادیر آستانه نامزد در X را توصیف می کند؟
درخت تصمیم نهایی دقت تست بدتری دارد.
سود اطلاعات بیشتر یا برابر خواهد بود.
درخت تصمیم نهایی دقت آموزشی بهتری ندارد.
آفرین.
سود اطلاعات کمتر یا برابر خواهد بود.
آفرین.
سوال 3
اگر منحنی «به دست آوردن اطلاعات» در مقابل «آستانه» دارای ماکزیمم های محلی متعدد باشد چه اتفاقی می افتد؟
الگوریتم حداکثر جهانی را انتخاب می کند.
آفرین.
داشتن ماکزیمم های محلی متعدد غیرممکن است.
ماکزیمم های محلی متعدد امکان پذیر است.
الگوریتم حداکثر محلی را با کمترین مقدار آستانه انتخاب می کند.
سوال 4
سود اطلاعات تقسیم زیر را محاسبه کنید:
گره | # نمونه های مثبت | # نمونه های منفی |
---|
گره والد | 10 | 6 |
فرزند اول | 8 | 2 |
فرزند دوم | 2 | 4 |
برای مشاهده پاسخ روی نماد کلیک کنید.
# Positive label distribution
p_parent = 10 / (10+6) # = 0.625
p_child_1 = 8 / (8+2) # = 0.8
p_child_2 = 2 / (2+4) # = 0.3333333
# Entropy
h_parent = -p_parent * log(p_parent) - (1-p_parent) * log(1-p_parent) # = 0.6615632
h_child_1 = ... # = 0.5004024
h_child_2 = ... # = 0.6365142
# Ratio of example in the child 1
s = (8+2)/(10+6)
f_final = s * h_child_1 + (1-s) * h_child_2 # = 0.5514443
information_gain = h_parent - f_final # = 0.1101189
جز در مواردی که غیر از این ذکر شده باشد،محتوای این صفحه تحت مجوز Creative Commons Attribution 4.0 License است. نمونه کدها نیز دارای مجوز Apache 2.0 License است. برای اطلاع از جزئیات، به خطمشیهای سایت Google Developers مراجعه کنید. جاوا علامت تجاری ثبتشده Oracle و/یا شرکتهای وابسته به آن است.
تاریخ آخرین بهروزرسانی 2025-02-25 بهوقت ساعت هماهنگ جهانی.
[null,null,["تاریخ آخرین بهروزرسانی 2025-02-25 بهوقت ساعت هماهنگ جهانی."],[[["This webpage presents a series of multiple-choice exercises focused on evaluating your understanding of decision tree training concepts."],["The exercises cover topics such as the impact of feature manipulation on decision tree structure, the effects of altering threshold selection strategies, and the implications of multiple local maxima in information gain curves."],["One question requires calculating information gain using entropy and provided data, demonstrating the practical application of decision tree principles."]]],[]]