ee.Reducer.ridgeRegression

Erstellt eine Reducer-Funktion, mit der eine Ridge-Regression mit numX unabhängigen Variablen (ohne Konstante) und numY abhängigen Variablen berechnet wird. Die Ridge-Regression ist eine Form der Tichonow-Regularisierung, bei der die Regressionskoeffizienten durch eine Strafe für ihre Größe reduziert werden. Bei dieser Implementierung der Ridge-Regression ist es NICHT ERFORDERLICH, einen konstanten Wert für den Bias einzufügen.

Die erste Ausgabe ist ein Koeffizientenarray mit den Dimensionen (numX + 1, numY). Jede Spalte enthält die Koeffizienten für die entsprechende abhängige Variable sowie den Achsenabschnitt für die abhängige Variable in der letzten Spalte. Zusätzliche Ausgaben sind ein Vektor des mittleren quadratischen Fehlers der Residuen jeder abhängigen Variablen und ein Vektor der p-Werte für jede abhängige Variable. Die Ausgaben sind null, wenn das System unterbestimmt ist, z.B. wenn die Anzahl der Eingaben kleiner als numX + 1 ist.

NutzungAusgabe
ee.Reducer.ridgeRegression(numX, numY, lambda)Reducer
ArgumentTypDetails
numXGanzzahldie Anzahl der unabhängigen Variablen, die regressiert werden.
numYGanzzahl, Standard: 1die Anzahl der abhängigen Variablen.
lambdaGleitkommazahl, Standardwert: 0,1Regularisierungsparameter.