ee.Reducer.ridgeRegression
จัดทุกอย่างให้เป็นระเบียบอยู่เสมอด้วยคอลเล็กชัน
บันทึกและจัดหมวดหมู่เนื้อหาตามค่ากำหนดของคุณ
Creates a reducer that computes a ridge regression with numX independent variables (not including constant) followed by numY dependent variables. การถดถอยแบบริดจ์เป็นรูปแบบหนึ่งของการทำให้เป็นปกติแบบทีโฮโนฟ ซึ่งจะลดค่าสัมประสิทธิ์การถดถอยโดยการกำหนดค่าปรับตามขนาดของค่าสัมประสิทธิ์ การใช้งานการถดถอยแบบริดจ์นี้ไม่จำเป็นต้องรวมค่าคงที่สำหรับอคติ
เอาต์พุตแรกคืออาร์เรย์สัมประสิทธิ์ที่มีมิติข้อมูล (numX + 1, numY) แต่ละคอลัมน์มีสัมประสิทธิ์สำหรับตัวแปรตามที่เกี่ยวข้องบวกกับค่าสกัดกั้นสำหรับตัวแปรตามในคอลัมน์สุดท้าย เอาต์พุตเพิ่มเติมคือเวกเตอร์ของค่าเฉลี่ยกำลังสองของส่วนที่เหลือของตัวแปรตามแต่ละตัว และเวกเตอร์ของค่า p สำหรับตัวแปรตามแต่ละตัว เอาต์พุตจะเป็นค่าว่างหากระบบมีข้อมูลไม่เพียงพอ เช่น จำนวนอินพุตน้อยกว่า numX + 1
การใช้งาน | การคืนสินค้า |
---|
ee.Reducer.ridgeRegression(numX, numY, lambda) | ตัวลดตำแหน่ง |
อาร์กิวเมนต์ | ประเภท | รายละเอียด |
---|
numX | จำนวนเต็ม | จำนวนตัวแปรอิสระที่กำลังถดถอย |
numY | จำนวนเต็ม ค่าเริ่มต้น: 1 | จำนวนตัวแปรตาม |
lambda | Float, ค่าเริ่มต้น: 0.1 | พารามิเตอร์การทำให้เป็นปกติ |
เนื้อหาของหน้าเว็บนี้ได้รับอนุญาตภายใต้ใบอนุญาตที่ต้องระบุที่มาของครีเอทีฟคอมมอนส์ 4.0 และตัวอย่างโค้ดได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0 เว้นแต่จะระบุไว้เป็นอย่างอื่น โปรดดูรายละเอียดที่นโยบายเว็บไซต์ Google Developers Java เป็นเครื่องหมายการค้าจดทะเบียนของ Oracle และ/หรือบริษัทในเครือ
อัปเดตล่าสุด 2025-07-26 UTC
[null,null,["อัปเดตล่าสุด 2025-07-26 UTC"],[[["\u003cp\u003eCreates a reducer for ridge regression, a regularization method that shrinks regression coefficients to prevent overfitting.\u003c/p\u003e\n"],["\u003cp\u003eOutputs include regression coefficients, root mean square of residuals, and p-values for each dependent variable.\u003c/p\u003e\n"],["\u003cp\u003eRequires specifying the number of independent and dependent variables, along with an optional regularization parameter (lambda).\u003c/p\u003e\n"],["\u003cp\u003eThe reducer automatically handles the intercept term, so there's no need to add a constant value for bias.\u003c/p\u003e\n"],["\u003cp\u003eOutputs will be null if the system is underdetermined, meaning there are fewer input data points than independent variables plus one.\u003c/p\u003e\n"]]],[],null,["# ee.Reducer.ridgeRegression\n\nCreates a reducer that computes a ridge regression with numX independent variables (not including constant) followed by numY dependent variables. Ridge regression is a form of Tikhonov regularization which shrinks the regression coefficients by imposing a penalty on their size. With this implementation of ridge regression there NO NEED to include a constant value for bias.\n\n\u003cbr /\u003e\n\nThe first output is a coefficients array with dimensions (numX + 1, numY); each column contains the coefficients for the corresponding dependent variable plus the intercept for the dependent variable in the last column. Additional outputs are a vector of the root mean square of the residuals of each dependent variable and a vector of p-values for each dependent variable. Outputs are null if the system is underdetermined, e.g., the number of inputs is less than numX + 1.\n\n| Usage | Returns |\n|-----------------------------------------------------------|---------|\n| `ee.Reducer.ridgeRegression(numX, `*numY* `, `*lambda*`)` | Reducer |\n\n| Argument | Type | Details |\n|----------|---------------------|------------------------------------------------------|\n| `numX` | Integer | the number of independent variables being regressed. |\n| `numY` | Integer, default: 1 | the number of dependent variables. |\n| `lambda` | Float, default: 0.1 | Regularization parameter. |"]]