डिसिज़न ट्री: अपनी समझ की जांच करें

इस पेज पर, आपको "ट्रेनिंग के लिए डिसीज़न ट्री" यूनिट में बताए गए कॉन्टेंट के बारे में, कई विकल्पों वाले कई सवालों के जवाब देने के लिए कहा गया है.

पहला सवाल

संख्या वाली सुविधाओं को उनकी सटीक संख्या वाले स्प्लिटर के साथ, उनकी नेगेटिव वैल्यू (उदाहरण के लिए, वैल्यू +8 को -8 में बदलना) से बदलने पर क्या असर पड़ता है?
अलग-अलग शर्तें सीखी जाएंगी, लेकिन डिसीज़न ट्री का पूरा स्ट्रक्चर एक जैसा रहेगा.
डिसीज़न ट्री का स्ट्रक्चर पूरी तरह से अलग होगा.
वही शर्तें सीखी जाएंगी; सिर्फ़ उन बच्चों के लिए पोज़िटिव/नेगेटिव का निशान बदला जाएगा जिनके लिए यह जानकारी उपलब्ध है.

दूसरा सवाल

X में, उम्मीदवार की सिर्फ़ आधी (रैंडम तौर पर चुनी गई) थ्रेशोल्ड वैल्यू की जांच करने के असर के बारे में सबसे अच्छी तरह बताने वाले दो जवाब कौनसे हैं?
फ़ाइनल डिसीज़न ट्री की जांच की सटीकता खराब होगी.
जानकारी कम या बराबर होगी.
जानकारी का फ़ायदा ज़्यादा या बराबर होगा.
फ़ाइनल डिसीज़न ट्री की ट्रेनिंग के नतीजे ज़्यादा सटीक नहीं होंगे.

तीसरा सवाल

अगर "थ्रेशोल्ड" बनाम "जानकारी हासिल करना" कर्व में एक से ज़्यादा लोकल मैक्सिमा हों, तो क्या होगा?
एल्गोरिदम, ग्लोबल मैक्सिमम चुनेगा.
एक से ज़्यादा लोकल मैक्सिमा नहीं हो सकते.
एल्गोरिदम, सबसे कम थ्रेशोल्ड वैल्यू वाले लोकल मैक्सिमा को चुनेगा.

चौथा सवाल

नीचे दिए गए स्प्लिट की जानकारी का हिसाब लगाएं:

नोड सही उदाहरणों की संख्या नेगेटिव उदाहरणों की संख्या
पैरंट नोड 10 6
पहला बच्चा 8 2
दूसरा बच्चा 2 4
# Positive label distribution
p_parent = 10 / (10+6) # = 0.625
p_child_1 = 8 / (8+2) # = 0.8
p_child_2 = 2 / (2+4) # = 0.3333333

# Entropy
h_parent = -p_parent * log(p_parent) - (1-p_parent) * log(1-p_parent) # = 0.6615632
h_child_1 = ... # = 0.5004024
h_child_2 = ... # = 0.6365142

# Ratio of example in the child 1
s = (8+2)/(10+6)
f_final = s * h_child_1 + (1-s) * h_child_2 # = 0.5514443

information_gain = h_parent - f_final # = 0.1101189