ee.Reducer.ridgeRegression
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Erstellt eine Reducer-Funktion, mit der eine Ridge-Regression mit numX unabhängigen Variablen (ohne Konstante) und numY abhängigen Variablen berechnet wird. Die Ridge-Regression ist eine Form der Tichonow-Regularisierung, bei der die Regressionskoeffizienten durch eine Strafe für ihre Größe reduziert werden. Bei dieser Implementierung der Ridge-Regression ist es NICHT ERFORDERLICH, einen konstanten Wert für den Bias einzufügen.
Die erste Ausgabe ist ein Koeffizientenarray mit den Dimensionen (numX + 1, numY). Jede Spalte enthält die Koeffizienten für die entsprechende abhängige Variable sowie den Achsenabschnitt für die abhängige Variable in der letzten Spalte. Zusätzliche Ausgaben sind ein Vektor des mittleren quadratischen Fehlers der Residuen jeder abhängigen Variablen und ein Vektor der p-Werte für jede abhängige Variable. Die Ausgaben sind null, wenn das System unterbestimmt ist, z.B. wenn die Anzahl der Eingaben kleiner als numX + 1 ist.
Nutzung | Ausgabe |
---|
ee.Reducer.ridgeRegression(numX, numY, lambda) | Reducer |
Argument | Typ | Details |
---|
numX | Ganzzahl | die Anzahl der unabhängigen Variablen, die regressiert werden. |
numY | Ganzzahl, Standard: 1 | die Anzahl der abhängigen Variablen. |
lambda | Gleitkommazahl, Standardwert: 0,1 | Regularisierungsparameter. |
Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.
Zuletzt aktualisiert: 2025-07-26 (UTC).
[null,null,["Zuletzt aktualisiert: 2025-07-26 (UTC)."],[[["\u003cp\u003eCreates a reducer for ridge regression, a regularization method that shrinks regression coefficients to prevent overfitting.\u003c/p\u003e\n"],["\u003cp\u003eOutputs include regression coefficients, root mean square of residuals, and p-values for each dependent variable.\u003c/p\u003e\n"],["\u003cp\u003eRequires specifying the number of independent and dependent variables, along with an optional regularization parameter (lambda).\u003c/p\u003e\n"],["\u003cp\u003eThe reducer automatically handles the intercept term, so there's no need to add a constant value for bias.\u003c/p\u003e\n"],["\u003cp\u003eOutputs will be null if the system is underdetermined, meaning there are fewer input data points than independent variables plus one.\u003c/p\u003e\n"]]],[],null,["# ee.Reducer.ridgeRegression\n\nCreates a reducer that computes a ridge regression with numX independent variables (not including constant) followed by numY dependent variables. Ridge regression is a form of Tikhonov regularization which shrinks the regression coefficients by imposing a penalty on their size. With this implementation of ridge regression there NO NEED to include a constant value for bias.\n\n\u003cbr /\u003e\n\nThe first output is a coefficients array with dimensions (numX + 1, numY); each column contains the coefficients for the corresponding dependent variable plus the intercept for the dependent variable in the last column. Additional outputs are a vector of the root mean square of the residuals of each dependent variable and a vector of p-values for each dependent variable. Outputs are null if the system is underdetermined, e.g., the number of inputs is less than numX + 1.\n\n| Usage | Returns |\n|-----------------------------------------------------------|---------|\n| `ee.Reducer.ridgeRegression(numX, `*numY* `, `*lambda*`)` | Reducer |\n\n| Argument | Type | Details |\n|----------|---------------------|------------------------------------------------------|\n| `numX` | Integer | the number of independent variables being regressed. |\n| `numY` | Integer, default: 1 | the number of dependent variables. |\n| `lambda` | Float, default: 0.1 | Regularization parameter. |"]]