डिसिज़न ट्री: अपनी समझ की जांच करें

इस पेज पर, आपको "ट्रेनिंग के लिए डिसीज़न ट्री" यूनिट में बताए गए कॉन्टेंट के बारे में, कई विकल्पों वाले कई सवालों के जवाब देने के लिए कहा गया है.

पहला सवाल

संख्या वाली सुविधाओं को उनकी सटीक संख्या वाले स्प्लिटर के साथ, उनकी नेगेटिव वैल्यू (उदाहरण के लिए, वैल्यू +8 को -8 में बदलना) से बदलने पर क्या असर पड़ता है?
वही शर्तें सीखी जाएंगी; सिर्फ़ उन बच्चों के लिए पोज़िटिव/नेगेटिव का निशान बदला जाएगा जिनके लिए यह जानकारी उपलब्ध है.
डिसीज़न ट्री का स्ट्रक्चर पूरी तरह से अलग होगा.
अलग-अलग शर्तें सीखी जाएंगी, लेकिन डिसीज़न ट्री का पूरा स्ट्रक्चर एक जैसा रहेगा.

दूसरा सवाल

X में, उम्मीदवार की सिर्फ़ आधी (रैंडम तौर पर चुनी गई) थ्रेशोल्ड वैल्यू की जांच करने के असर के बारे में सबसे अच्छी तरह बताने वाले दो जवाब कौनसे हैं?
फ़ाइनल डिसीज़न ट्री की ट्रेनिंग के नतीजे ज़्यादा सटीक नहीं होंगे.
जानकारी का फ़ायदा ज़्यादा या बराबर होगा.
फ़ाइनल डिसीज़न ट्री की जांच की सटीकता खराब होगी.
जानकारी कम या बराबर होगी.

तीसरा सवाल

अगर "थ्रेशोल्ड" बनाम "जानकारी हासिल करना" कर्व में एक से ज़्यादा लोकल मैक्सिमा हों, तो क्या होगा?
एल्गोरिदम, सबसे कम थ्रेशोल्ड वैल्यू वाले लोकल मैक्सिमा को चुनेगा.
एल्गोरिदम, ग्लोबल मैक्सिमम चुनेगा.
एक से ज़्यादा लोकल मैक्सिमा नहीं हो सकते.

चौथा सवाल

नीचे दिए गए स्प्लिट की जानकारी का हिसाब लगाएं:

नोड सही उदाहरणों की संख्या नेगेटिव उदाहरणों की संख्या
पैरंट नोड 10 6
पहला बच्चा 8 2
दूसरा बच्चा 2 4
# Positive label distribution
p_parent = 10 / (10+6) # = 0.625
p_child_1 = 8 / (8+2) # = 0.8
p_child_2 = 2 / (2+4) # = 0.3333333

# Entropy
h_parent = -p_parent * log(p_parent) - (1-p_parent) * log(1-p_parent) # = 0.6615632
h_child_1 = ... # = 0.5004024
h_child_2 = ... # = 0.6365142

# Ratio of example in the child 1
s = (8+2)/(10+6)
f_final = s * h_child_1 + (1-s) * h_child_2 # = 0.5514443

information_gain = h_parent - f_final # = 0.1101189