Karar ağaçları: Öğrendiklerinizi kontrol edin
Bu sayfada, "Karar Ağaçları Eğitimi" biriminde ele alınan materyallerle ilgili bir dizi çoktan seçmeli alıştırmayı yanıtlamanız istenir.
1. Soru
Tam sayı bölme işleviyle sayısal özelliklerin negatif değerleriyle (ör. +8 değerinin -8 olarak değiştirilmesi) değiştirilmesinin sonuçları nelerdir?
Karar ağacının yapısı tamamen farklı olacaktır.
Karar ağacının yapısı aslında hemen hemen aynı olacaktır. Ancak koşullar değişecektir.
Aynı koşullar öğrenilir; yalnızca olumlu/olumsuz çocuklar değiştirilir.
Harika.
Farklı koşullar öğrenilir ancak karar ağacının genel yapısı aynı kalır.
Özellikler değişirse koşullar da değişir.
2. Soru
X'deki aday eşik değerlerinin yalnızca yarısını (rastgele seçilmiş) test etmenin etkisini en iyi açıklayan iki yanıt nedir?
Son karar ağacının test doğruluğu daha düşük olur.
Bilgi kazancı daha düşük veya eşit olur.
Tebrikler.
Bilgi kazancı daha yüksek veya eşit olur.
Nihai karar ağacının eğitim doğruluğu daha iyi olmaz.
Tebrikler.
3. Soru
"Bilgi kazancı" ve "eşik" eğrisi birden fazla yerel maksimuma sahipse ne olur?
Algoritma, en küçük eşik değerine sahip yerel maksimumları seçer.
Birden fazla yerel maksimum değeri olamaz.
Birden fazla yerel maksimum olabilir.
Algoritma, genel maksimum değeri seçer.
Tebrikler.
4. Soru
Aşağıdaki bölme işleminin bilgi kazancını hesaplayın:
Düğüm | pozitif örnek sayısı | Olumsuz örnek sayısı |
üst düğüm | 10 | 6 |
ilk çocuk | 8 | 2 |
ikinci çocuk | 2 | 4 |
Yanıtı görmek için simgeyi tıklayın.
# Positive label distribution
p_parent = 10 / (10+6) # = 0.625
p_child_1 = 8 / (8+2) # = 0.8
p_child_2 = 2 / (2+4) # = 0.3333333
# Entropy
h_parent = -p_parent * log(p_parent) - (1-p_parent) * log(1-p_parent) # = 0.6615632
h_child_1 = ... # = 0.5004024
h_child_2 = ... # = 0.6365142
# Ratio of example in the child 1
s = (8+2)/(10+6)
f_final = s * h_child_1 + (1-s) * h_child_2 # = 0.5514443
information_gain = h_parent - f_final # = 0.1101189
Aksi belirtilmediği sürece bu sayfanın içeriği Creative Commons Atıf 4.0 Lisansı altında ve kod örnekleri Apache 2.0 Lisansı altında lisanslanmıştır. Ayrıntılı bilgi için Google Developers Site Politikaları'na göz atın. Java, Oracle ve/veya satış ortaklarının tescilli ticari markasıdır.
Son güncelleme tarihi: 2025-02-25 UTC.
[null,null,["Son güncelleme tarihi: 2025-02-25 UTC."],[[["This webpage presents a series of multiple-choice exercises focused on evaluating your understanding of decision tree training concepts."],["The exercises cover topics such as the impact of feature manipulation on decision tree structure, the effects of altering threshold selection strategies, and the implications of multiple local maxima in information gain curves."],["One question requires calculating information gain using entropy and provided data, demonstrating the practical application of decision tree principles."]]],[]]