ঘোষণা :
15 এপ্রিল, 2025 এর আগে আর্থ ইঞ্জিন ব্যবহার করার জন্য নিবন্ধিত সমস্ত অবাণিজ্যিক প্রকল্পগুলিকে অবশ্যই আর্থ ইঞ্জিন অ্যাক্সেস বজায় রাখার জন্য
অ-বাণিজ্যিক যোগ্যতা যাচাই করতে হবে।
ee.Reducer.ridgeRegression
সেভ করা পৃষ্ঠা গুছিয়ে রাখতে 'সংগ্রহ' ব্যবহার করুন
আপনার পছন্দ অনুযায়ী কন্টেন্ট সেভ করুন ও সঠিক বিভাগে রাখুন।
একটি রিডুসার তৈরি করে যা numX স্বাধীন ভেরিয়েবল (ধ্রুবক সহ নয়) এর পরে numY নির্ভরশীল ভেরিয়েবলের সাথে একটি রিজ রিগ্রেশন গণনা করে। রিজ রিগ্রেশন হল টিখোনভ রেগুলারাইজেশনের একটি ফর্ম যা রিগ্রেশন কোফিসিয়েন্টকে তাদের আকারের উপর শাস্তি আরোপ করে সঙ্কুচিত করে। রিজ রিগ্রেশনের এই বাস্তবায়নের সাথে পক্ষপাতের জন্য একটি ধ্রুবক মান অন্তর্ভুক্ত করার প্রয়োজন নেই।
প্রথম আউটপুটটি মাত্রা সহ একটি সহগ অ্যারে (numX + 1, numY); প্রতিটি কলামে সংশ্লিষ্ট নির্ভরশীল ভেরিয়েবলের সহগ এবং শেষ কলামে নির্ভরশীল ভেরিয়েবলের জন্য ইন্টারসেপ্ট রয়েছে। অতিরিক্ত আউটপুট হল প্রতিটি নির্ভরশীল ভেরিয়েবলের অবশিষ্টাংশের মূল গড় বর্গক্ষেত্রের একটি ভেক্টর এবং প্রতিটি নির্ভরশীল চলকের জন্য p-মানগুলির একটি ভেক্টর। আউটপুট শূন্য হয় যদি সিস্টেমটি অবনমিত হয়, যেমন, ইনপুটের সংখ্যা numX + 1 এর চেয়ে কম।
ব্যবহার | রিটার্নস | ee.Reducer.ridgeRegression(numX, numY , lambda ) | হ্রাসকারী |
যুক্তি | টাইপ | বিস্তারিত | numX | পূর্ণসংখ্যা | স্বাধীন ভেরিয়েবলের সংখ্যা প্রত্যাবর্তন করা হচ্ছে। |
numY | পূর্ণসংখ্যা, ডিফল্ট: 1 | নির্ভরশীল ভেরিয়েবলের সংখ্যা। |
lambda | ফ্লোট, ডিফল্ট: 0.1 | নিয়মিতকরণ পরামিতি। |
অন্য কিছু উল্লেখ না করা থাকলে, এই পৃষ্ঠার কন্টেন্ট Creative Commons Attribution 4.0 License-এর অধীনে এবং কোডের নমুনাগুলি Apache 2.0 License-এর অধীনে লাইসেন্স প্রাপ্ত। আরও জানতে, Google Developers সাইট নীতি দেখুন। Java হল Oracle এবং/অথবা তার অ্যাফিলিয়েট সংস্থার রেজিস্টার্ড ট্রেডমার্ক।
2025-07-24 UTC-তে শেষবার আপডেট করা হয়েছে।
[null,null,["2025-07-24 UTC-তে শেষবার আপডেট করা হয়েছে।"],[[["\u003cp\u003eCreates a reducer for ridge regression, a regularization method that shrinks regression coefficients to prevent overfitting.\u003c/p\u003e\n"],["\u003cp\u003eOutputs include regression coefficients, root mean square of residuals, and p-values for each dependent variable.\u003c/p\u003e\n"],["\u003cp\u003eRequires specifying the number of independent and dependent variables, along with an optional regularization parameter (lambda).\u003c/p\u003e\n"],["\u003cp\u003eThe reducer automatically handles the intercept term, so there's no need to add a constant value for bias.\u003c/p\u003e\n"],["\u003cp\u003eOutputs will be null if the system is underdetermined, meaning there are fewer input data points than independent variables plus one.\u003c/p\u003e\n"]]],[],null,["# ee.Reducer.ridgeRegression\n\nCreates a reducer that computes a ridge regression with numX independent variables (not including constant) followed by numY dependent variables. Ridge regression is a form of Tikhonov regularization which shrinks the regression coefficients by imposing a penalty on their size. With this implementation of ridge regression there NO NEED to include a constant value for bias.\n\n\u003cbr /\u003e\n\nThe first output is a coefficients array with dimensions (numX + 1, numY); each column contains the coefficients for the corresponding dependent variable plus the intercept for the dependent variable in the last column. Additional outputs are a vector of the root mean square of the residuals of each dependent variable and a vector of p-values for each dependent variable. Outputs are null if the system is underdetermined, e.g., the number of inputs is less than numX + 1.\n\n| Usage | Returns |\n|-----------------------------------------------------------|---------|\n| `ee.Reducer.ridgeRegression(numX, `*numY* `, `*lambda*`)` | Reducer |\n\n| Argument | Type | Details |\n|----------|---------------------|------------------------------------------------------|\n| `numX` | Integer | the number of independent variables being regressed. |\n| `numY` | Integer, default: 1 | the number of dependent variables. |\n| `lambda` | Float, default: 0.1 | Regularization parameter. |"]]