Mạng nơron: Bài tập tương tác

Trong các bài tập tương tác dưới đây, bạn sẽ vận dụng những điều đã học để huấn luyện một mạng nơron để điều chỉnh dữ liệu phi tuyến tính.

Bài tập

Trong mục Bài tập chéo tính năng trong mô-đun dữ liệu danh mục, bạn đã tạo các bước chuyển tính năng theo cách thủ công để khớp dữ liệu phi tuyến tính. Bây giờ, bạn sẽ xem mình có thể xây dựng một mạng nơron có khả năng tự động học hỏi cách điều chỉnh dữ liệu phi tuyến tính trong quá trình huấn luyện.

Nhiệm vụ của bạn: định cấu hình một mạng nơron có thể phân tách các dấu chấm màu cam với các dấu chấm màu xanh trong biểu đồ bên dưới, có độ giảm dưới 0,2 trên cả hai dữ liệu huấn luyện và kiểm tra.

Hướng dẫn:

Trong tiện ích tương tác bên dưới:

  1. Sửa đổi siêu thông số của mạng nơron bằng cách thử nghiệm với một số trong số các chế độ cài đặt cấu hình sau:
    • Thêm hoặc xóa các lớp ẩn bằng cách nhấp vào nút +- ở phía trước bên trái tiêu đề LỚP ẨN trong sơ đồ mạng.
    • Thêm hoặc xóa nơron khỏi một lớp ẩn bằng cách nhấp vào dấu +- các nút bên trên cột lớp ẩn.
    • Thay đổi tốc độ học bằng cách chọn một giá trị mới trong Tốc độ học trình đơn thả xuống ở phía trên biểu đồ.
    • Thay đổi hàm kích hoạt bằng cách chọn một giá trị mới trong Trình đơn thả xuống Kích hoạt ở phía trên biểu đồ.
  2. Nhấp vào nút Phát (▶️) phía trên biểu đồ để huấn luyện mạng nơron bằng cách sử dụng các tham số được chỉ định.
  3. Quan sát hình ảnh trực quan của mô hình điều chỉnh dữ liệu để huấn luyện tiến trình phát triển, cũng như Lượt ngừng kiểm thử và Giá trị mất huấn luyện trong phần Output (Đầu ra).
  4. Nếu mô hình không đạt được mức tổn thất dưới 0,2 đối với dữ liệu kiểm thử và huấn luyện, nhấp vào đặt lại và lặp lại các bước từ 1 đến 3 với một tập hợp cấu hình khác phần cài đặt. Lặp lại quá trình này cho đến khi bạn đạt được kết quả mong muốn.

Nhấp vào đây để xem giải pháp của chúng tôi

Chúng tôi đã có thể đạt được cả tổn thất trong kiểm thử và huấn luyện dưới 0,2 bằng cách:

  • Thêm 1 lớp ẩn chứa 3 nơron.
  • Chọn tốc độ học là 0,01.
  • Chọn một hàm kích hoạt của ReLU.