Hồi quy tuyến tính: Bài tập về phương pháp giảm độ dốc
Sử dụng bộ sưu tập để sắp xếp ngăn nắp các trang
Lưu và phân loại nội dung dựa trên lựa chọn ưu tiên của bạn.
Trong bài tập này, bạn sẽ xem lại biểu đồ dữ liệu về mức tiết kiệm nhiên liệu từ bài tập về Thông số. Nhưng lần này, bạn sẽ sử dụng phương pháp hạ dần để tìm hiểu các giá trị trọng số và độ lệch tối ưu cho một mô hình tuyến tính giúp giảm thiểu tổn thất.
Hoàn thành 3 nhiệm vụ bên dưới biểu đồ.
Tác vụ #1: Điều chỉnh thanh trượt Tốc độ học bên dưới biểu đồ để đặt tốc độ học là 0,03. Nhấp vào nút Start (Bắt đầu) để chạy thuật toán hạ gradient.
Quá trình huấn luyện mô hình mất bao lâu để hội tụ (đạt được giá trị tổn thất tối thiểu ổn định)? Giá trị MSE tại thời điểm hội tụ mô hình là bao nhiêu? Giá trị trọng số và độ lệch nào tạo ra giá trị này?
Nhấp vào biểu tượng dấu cộng để xem giải pháp của chúng tôi
Khi chúng ta đặt tốc độ học là 0,03, mô hình đã hội tụ sau khoảng 30 giây, đạt được MSE chỉ dưới 3 với các giá trị trọng số và độ lệch lần lượt là –2,08 và 23,098. Điều này cho thấy chúng ta đã chọn một giá trị tốc độ học phù hợp.
Tác vụ #2: Nhấp vào nút Reset (Đặt lại) bên dưới biểu đồ để đặt lại các giá trị Trọng số và Chiều lệch trong biểu đồ. Điều chỉnh thanh trượt Tốc độ học thành một giá trị khoảng 1,10e–5. Nhấp vào nút Start (Bắt đầu) để chạy thuật toán hạ gradient.
Bạn nhận thấy điều gì về thời gian huấn luyện mô hình để hội tụ lần này?
Nhấp vào biểu tượng dấu cộng để xem giải pháp
Sau vài phút, quá trình huấn luyện mô hình vẫn chưa hội tụ. Các bản cập nhật nhỏ đối với giá trị Trọng số và Độ lệch tiếp tục dẫn đến giá trị tổn thất thấp hơn một chút. Điều này cho thấy rằng việc chọn tốc độ học cao hơn sẽ giúp phương pháp hạ gradient tìm thấy các giá trị trọng số và độ lệch tối ưu nhanh hơn.
Tác vụ #3: Nhấp vào nút Reset (Đặt lại) bên dưới biểu đồ để đặt lại các giá trị Trọng số và Độ lệch trong biểu đồ. Điều chỉnh thanh trượt Tốc độ học lên đến 1.
Nhấp vào nút Start (Bắt đầu) để chạy thuật toán hạ gradient.
Điều gì sẽ xảy ra với các giá trị tổn thất khi phương pháp giảm độ dốc chạy? Lần này, quá trình huấn luyện mô hình sẽ mất bao lâu để hội tụ?
Nhấp vào biểu tượng dấu cộng để xem giải pháp
Giá trị tổn thất biến động mạnh ở các giá trị cao (MSE trên 300).
Điều này cho thấy tốc độ học quá cao và quá trình huấn luyện mô hình sẽ không bao giờ đạt được sự hội tụ.
[null,null,["Cập nhật lần gần đây nhất: 2025-06-29 UTC."],[],[],null,["# Linear regression: Gradient descent exercise\n\nIn this exercise, you'll revisit the graph of fuel-efficiency data from\nthe [Parameters exercise](/machine-learning/crash-course/linear-regression/parameters-exercise). But this time, you'll\nuse gradient descent to learn the optimal weight and bias values for a linear\nmodel that minimizes loss.\n\nComplete the three tasks below the graph.\n| This interactive visualization can produce flashing visuals when set to a high Learning Rate, which may affect photosensitive individuals.\n\n**Task #1:** Adjust the **Learning Rate** slider below the graph to set a\nlearning rate of 0.03. Click the **Start** button to run gradient descent.\n\nHow long does the model training take to converge (reach a stable minimum\nloss value)? What is the MSE value at model convergence? What weight and bias\nvalues produce this value?\n\n#### Click the plus icon to see our solution\n\nWhen we set a learning rate of 0.03, the model converged after\napproximately 30 seconds, achieving a MSE of just under 3 with weight and\nbias values of --2.08 and 23.098, respectively. This indicates we've\npicked a good learning rate value.\n| **Note:** The data points in the graph vary slightly each time you load the page, so your solutions here may be a little different than ours.\n\n**Task #2:** Click the **Reset** button below the graph to reset the Weight and\nBias values in the graph. Adjust the **Learning Rate** slider to a value around\n1.10e^--5^. Click the **Start** button to run gradient descent.\n\nWhat do you notice about how long it takes the model training to converge\nthis time?\n\n#### Click the plus icon to see the solution\n\nAfter several minutes, model training still hasn't converged. Small\nupdates to Weight and Bias values continue to result in slightly lower\nloss values. This suggests that picking a higher learning rate would\nenable gradient descent to find the optimal weight and bias values more\nquickly.\n\n**Task #3:** Click the **Reset** button below the graph to reset the Weight\nand Bias values in the graph. Adjust the **Learning Rate** slider up to 1.\nClick the **Start** button to run gradient descent.\n\nWhat happens to the loss values as gradient descent runs? How long will model\ntraining take to converge this time?\n\n#### Click the plus icon to see the solution\n\nLoss values fluctuate wildly at high values (MSE over 300).\nThis indicates that the learning rate is too high, and model training\nwill never reach convergence."]]