ee.Reducer.ridgeRegression
Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Crée un réducteur qui calcule une régression ridge avec numX variables indépendantes (sans inclure la constante) suivies de numY variables dépendantes. La régression Ridge est une forme de régularisation de Tikhonov qui réduit les coefficients de régression en imposant une pénalité sur leur taille. Avec cette implémentation de la régression ridge, il n'est PAS NÉCESSAIRE d'inclure une valeur constante pour le biais.
Le premier résultat est un tableau de coefficients avec des dimensions (numX + 1, numY). Chaque colonne contient les coefficients de la variable dépendante correspondante, ainsi que l'ordonnée à l'origine de la variable dépendante dans la dernière colonne. Les sorties supplémentaires sont un vecteur de la racine carrée moyenne des résidus de chaque variable dépendante et un vecteur de valeurs p pour chaque variable dépendante. Les sorties sont nulles si le système est sous-déterminé (par exemple, si le nombre d'entrées est inférieur à numX+1).
Utilisation | Renvoie |
---|
ee.Reducer.ridgeRegression(numX, numY, lambda) | Réducteur |
Argument | Type | Détails |
---|
numX | Nombre entier | le nombre de variables indépendantes faisant l'objet d'une régression. |
numY | Entier, valeur par défaut : 1 | le nombre de variables dépendantes. |
lambda | Flottant, valeur par défaut : 0,1 | Paramètre de régularisation. |
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/07/26 (UTC).
[null,null,["Dernière mise à jour le 2025/07/26 (UTC)."],[[["\u003cp\u003eCreates a reducer for ridge regression, a regularization method that shrinks regression coefficients to prevent overfitting.\u003c/p\u003e\n"],["\u003cp\u003eOutputs include regression coefficients, root mean square of residuals, and p-values for each dependent variable.\u003c/p\u003e\n"],["\u003cp\u003eRequires specifying the number of independent and dependent variables, along with an optional regularization parameter (lambda).\u003c/p\u003e\n"],["\u003cp\u003eThe reducer automatically handles the intercept term, so there's no need to add a constant value for bias.\u003c/p\u003e\n"],["\u003cp\u003eOutputs will be null if the system is underdetermined, meaning there are fewer input data points than independent variables plus one.\u003c/p\u003e\n"]]],[],null,["# ee.Reducer.ridgeRegression\n\nCreates a reducer that computes a ridge regression with numX independent variables (not including constant) followed by numY dependent variables. Ridge regression is a form of Tikhonov regularization which shrinks the regression coefficients by imposing a penalty on their size. With this implementation of ridge regression there NO NEED to include a constant value for bias.\n\n\u003cbr /\u003e\n\nThe first output is a coefficients array with dimensions (numX + 1, numY); each column contains the coefficients for the corresponding dependent variable plus the intercept for the dependent variable in the last column. Additional outputs are a vector of the root mean square of the residuals of each dependent variable and a vector of p-values for each dependent variable. Outputs are null if the system is underdetermined, e.g., the number of inputs is less than numX + 1.\n\n| Usage | Returns |\n|-----------------------------------------------------------|---------|\n| `ee.Reducer.ridgeRegression(numX, `*numY* `, `*lambda*`)` | Reducer |\n\n| Argument | Type | Details |\n|----------|---------------------|------------------------------------------------------|\n| `numX` | Integer | the number of independent variables being regressed. |\n| `numY` | Integer, default: 1 | the number of dependent variables. |\n| `lambda` | Float, default: 0.1 | Regularization parameter. |"]]