यह एक ऐसा रिड्यूसर बनाता है जो numX इंडिपेंडेंट वैरिएबल (कॉन्स्टेंट को छोड़कर) के साथ रिज़ रिग्रेशन का हिसाब लगाता है. इसके बाद, numY डिपेंडेंट वैरिएबल का हिसाब लगाता है. रिज़ रिग्रेशन, टिखोनोव रेगुलराइज़ेशन का एक रूप है. यह रिग्रेशन कोएफ़िशिएंट को कम करता है. इसके लिए, यह उनके साइज़ पर जुर्माना लगाता है. रिज़ रिग्रेशन को लागू करने के इस तरीके में, पूर्वाग्रह के लिए कोई स्थिर वैल्यू शामिल करने की ज़रूरत नहीं होती.
पहला आउटपुट, डाइमेंशन (numX + 1, numY) वाली कोएफ़िशिएंट सरणी है. हर कॉलम में, संबंधित आश्रित वैरिएबल के कोएफ़िशिएंट होते हैं. साथ ही, आखिरी कॉलम में आश्रित वैरिएबल के लिए इंटरसेप्ट होता है. अतिरिक्त आउटपुट, हर डिपेंडेंट वैरिएबल के रेसिड्युअल के रूट मीन स्क्वेयर का वेक्टर और हर डिपेंडेंट वैरिएबल के लिए p-वैल्यू का वेक्टर होता है. अगर सिस्टम में ज़रूरत से कम इनपुट दिए गए हैं, तो आउटपुट शून्य होते हैं. उदाहरण के लिए, इनपुट की संख्या numX + 1 से कम है.
| इस्तेमाल | रिटर्न |
|---|
ee.Reducer.ridgeRegression(numX, numY, lambda) | रेड्यूसर |
| आर्ग्यूमेंट | टाइप | विवरण |
|---|
numX | पूर्णांक | रिग्रेशन किए जा रहे इंडिपेंडेंट वैरिएबल की संख्या. |
numY | पूर्णांक, डिफ़ॉल्ट: 1 | डिपेंडेंट वैरिएबल की संख्या. |
lambda | फ़्लोट, डिफ़ॉल्ट: 0.1 | रेगुलराइज़ेशन पैरामीटर. |