Công bằng: Giảm thiểu thiên kiến

Sau khi xác định được nguồn thiên vị trong dữ liệu huấn luyện, chúng ta có thể chủ động thực hiện các bước để giảm thiểu tác động của nguồn đó. Các kỹ sư học máy (ML) thường sử dụng hai chiến lược chính để khắc phục thiên kiến:

  • Tăng cường dữ liệu huấn luyện.
  • Điều chỉnh hàm mất mát của mô hình.

Bổ sung dữ liệu huấn luyện

Nếu quy trình kiểm tra dữ liệu huấn luyện phát hiện thấy các vấn đề về dữ liệu bị thiếu, không chính xác hoặc bị lệch, thì cách đơn giản nhất để giải quyết vấn đề thường là thu thập thêm dữ liệu.

Tuy nhiên, mặc dù việc tăng cường dữ liệu huấn luyện có thể là lý tưởng, nhưng nhược điểm của phương pháp này là cũng có thể không khả thi, do thiếu dữ liệu có sẵn hoặc các hạn chế về tài nguyên cản trở việc thu thập dữ liệu. Ví dụ: việc thu thập thêm dữ liệu có thể quá tốn kém hoặc tốn thời gian hoặc không khả thi do các quy định hạn chế về pháp lý/quyền riêng tư.

Điều chỉnh hàm tối ưu hoá của mô hình

Trong trường hợp không thể thu thập thêm dữ liệu huấn luyện, một phương pháp khác để giảm thiểu thiên vị là điều chỉnh cách tính toán tổn thất trong quá trình huấn luyện mô hình. Chúng tôi thường sử dụng một hàm tối ưu hoá như mất mát logarit để phạt các dự đoán không chính xác của mô hình. Tuy nhiên, việc mất nhật ký không khiến tư cách thành viên trong nhóm con được xem xét. Vì vậy, thay vì sử dụng hàm tổn thất nhật ký, chúng ta có thể chọn một hàm tối ưu hoá được thiết kế để phạt các lỗi theo cách nhận biết được sự công bằng, giúp chống lại sự mất cân bằng mà chúng ta đã xác định được trong dữ liệu huấn luyện.

Thư viện khắc phục mô hình TensorFlow cung cấp các tiện ích để áp dụng hai kỹ thuật giảm thiểu thiên vị khác nhau trong quá trình huấn luyện mô hình:

  • MinDiff: MinDiff nhằm cân bằng các lỗi cho hai lát cắt dữ liệu khác nhau (học viên nam/nữ so với học viên không thuộc hai giới) bằng cách thêm một hình phạt cho sự khác biệt trong phân phối dự đoán cho hai nhóm.

  • Ghép nối Logit phản chứng: Phương pháp Ghép nối Logit phản chứng (CLP) nhằm đảm bảo rằng việc thay đổi một thuộc tính nhạy cảm của một ví dụ nhất định sẽ không làm thay đổi kết quả dự đoán của mô hình cho ví dụ đó. Ví dụ: nếu một tập dữ liệu huấn luyện chứa hai ví dụ có giá trị đặc điểm giống hệt nhau, ngoại trừ một ví dụ có giá trị gendermale và ví dụ còn lại có giá trị gendernonbinary, thì CLP sẽ thêm một hình phạt nếu dự đoán cho hai ví dụ này khác nhau.

Các kỹ thuật mà bạn chọn để điều chỉnh hàm tối ưu hoá phụ thuộc vào các trường hợp sử dụng của mô hình. Trong phần tiếp theo, chúng ta sẽ xem xét kỹ hơn cách tiếp cận nhiệm vụ đánh giá tính công bằng của một mô hình bằng cách xem xét các trường hợp sử dụng này.

Bài tập: Kiểm tra mức độ hiểu bài

Nhận định nào sau đây là đúng về kỹ thuật giảm thiểu thiên kiến?
Cả MinDiff và CLP đều phạt các điểm khác biệt về hiệu suất của mô hình liên quan đến các thuộc tính nhạy cảm
Cả hai kỹ thuật đều nhằm giảm thiểu độ sai lệch bằng cách phạt các lỗi dự đoán do sự không cân bằng về cách biểu thị các thuộc tính nhạy cảm trong dữ liệu huấn luyện.
MinDiff phạt các điểm khác biệt trong mức phân phối tổng thể của các dự đoán cho các lát cắt dữ liệu khác nhau, trong khi CLP phạt các điểm khác biệt trong dự đoán cho từng cặp ví dụ riêng lẻ.
MinDiff giải quyết sự thiên vị bằng cách điều chỉnh mức phân phối điểm cho hai nhóm con. CLP giải quyết sự thiên vị bằng cách đảm bảo rằng các ví dụ riêng lẻ không được xử lý khác nhau chỉ vì thuộc nhóm con.
Việc thêm nhiều ví dụ vào tập dữ liệu huấn luyện sẽ luôn giúp giảm thiểu sự thiên vị trong dự đoán của mô hình.
Việc thêm nhiều ví dụ huấn luyện hơn là một chiến lược hiệu quả để giảm thiểu sự thiên vị, nhưng thành phần của dữ liệu huấn luyện mới là rất quan trọng. Nếu các ví dụ huấn luyện bổ sung cho thấy sự mất cân bằng tương tự như dữ liệu ban đầu, thì chúng có thể sẽ không giúp giảm thiểu sự thiên vị hiện có.
Nếu muốn giảm bớt sự thiên vị bằng cách bổ sung thêm dữ liệu huấn luyện, bạn cũng không nên áp dụng MinDiff hoặc CLP trong quá trình huấn luyện.
Việc tăng cường dữ liệu huấn luyện và áp dụng các kỹ thuật như MinDiff hoặc CLP có thể bổ sung cho nhau. Ví dụ: một kỹ sư học máy có thể thu thập đủ dữ liệu huấn luyện bổ sung để giảm 30% mức chênh lệch về hiệu suất, sau đó sử dụng MinDiff để giảm thêm 50% mức chênh lệch.