लॉजिस्टिक रिग्रेशन: प्रॉबेबिलिटी का हिसाब लगाना

कई समस्याओं के लिए आउटपुट के रूप में संभावना का अनुमान लगाना ज़रूरी होता है. लॉजिस्टिक रिग्रेशन करने की क्षमता, क्षमताओं को गिनने का बहुत अच्छा तरीका है. व्यावहारिक तौर पर, आप दिए गए दो तरीकों में से किसी एक का इस्तेमाल करके, लौट चुके संभावना का इस्तेमाल कर सकते हैं:

  • &कोट;जैसे है"
  • बाइनरी कैटगरी में बदला गया.

चलिए, देखते हैं कि हम प्रॉबेबिलिटी और कोट को कैसे इस्तेमाल कर सकते हैं;और मान लीजिए कि हम इस बात की संभावना का अनुमान लगाने के लिए, एक लॉजिस्टिक रिग्रेशन मॉडल बनाते हैं कि कुत्ते की आधी रात के दौरान भौंकने की संभावना होती है. हम उस संभावना को कॉल करेंगे:

\[p(bark | night)\]

अगर लॉजिस्टिक रिग्रेशन मॉडल का अनुमान \(p(bark | night) = 0.05\)

\[\begin{align} startled &= p(bark | night) \cdot nights \\ &= 0.05 \cdot 365 \\ &~= 18 \end{align} \]

कई मामलों में, आप लॉजिस्टिक रिग्रेशन आउटपुट को बाइनरी क्लासिफ़िकेशन समस्या के समाधान में मैप करेंगे. इसमें लक्ष्य दो संभावित लेबल में से किसी एक का सही अनुमान लगाना होगा (जैसे कि "स्पैम" या "न कि स्पैम". बाद में मॉड्यूल पर फ़ोकस किया जाता है.

शायद आप यह जानना चाहते हैं कि लॉजिस्टिक रिग्रेशन मॉडल से 0 और 1 के बीच हमेशा आउटपुट कैसे मिलता है. ऐसा होने पर, sgmoid फ़ंक्शन को इस तरह परिभाषित किया जाता है. इससे एक जैसे नतीजे मिलते हैं:

$$y = \frac{1}{1 + e^{-z}}$$

Sigmoid फ़ंक्शन नीचे दिए गए चार्ट दिखाता है:

Sigmoid फ़ंक्शन. x अक्ष, रॉ अनुमान की वैल्यू है. y अक्ष को 0 से +1 तक बढ़ाया जा सकता है (खास नहीं).

पहली इमेज: Sigmoid फ़ंक्शन.

अगर \(z\) लॉजिस्टिक रिग्रेशन से प्रशिक्षित मॉडल की लीनियर लेयर के आउटपुट को दिखाता है, तो \(sigmoid(z)\) 0 और 1 के बीच वैल्यू (एक संभावना) जनरेट करेगा. गणित के शब्दों में:

$$y' = \frac{1}{1 + e^{-z}}$$

कहां:

  • \(y'\) किसी खास उदाहरण के लिए लॉजिस्टिक रिग्रेशन मॉडल का आउटपुट है.
  • \(z = b + w_1x_1 + w_2x_2 + \ldots + w_Nx_N\)
    • \(w\) मान, मॉडल के'के महत्व और \(b\) मान होते हैं.
    • \(x\) वैल्यू किसी खास उदाहरण के लिए सुविधा की वैल्यू होती हैं.

ध्यान दें कि \(z\) इसे लॉग-ऑड भी कहा जाता है, क्योंकि सिगमॉइड के उलट में बताया गया है कि \(z\) \(1\) के संभावना की लॉग के रूप में परिभाषित किया जा सकता है (उदाहरण के लिए, "dog Bark") को \(0\) लेबल की संभावना से भाग दिया जाता है (उदाहरण के लिए, "dog &&30;t Bark"):

$$ z = \log\left(\frac{y}{1-y}\right) $$

यहां एमएल लेबल के लिए सिगऑइड फ़ंक्शन दिया गया है:

x-अक्ष के साथ Sigmoid फ़ंक्शन को लेबल किया जाता है, जो सभी महत्व और सुविधाओं (और झुकाव) के योग के रूप में लेबल होता है; y-अक्ष को संभावना आउटपुट के रूप में लेबल किया जाता है.

दूसरी इमेज: लॉजिस्टिक रिग्रेशन आउटपुट.