Tính công bằng
Tính công bằng đề cập đến những kết quả khác biệt mà người dùng cuối có thể gặp phải liên quan đến các đặc điểm nhạy cảm như chủng tộc, thu nhập, xu hướng tính dục hoặc giới tính thông qua việc đưa ra quyết định bằng thuật toán. Ví dụ: thuật toán tuyển dụng có thể thiên vị hoặc không thiên vị ứng viên có tên liên quan đến một giới tính hoặc sắc tộc cụ thể không?
Tìm hiểu thêm về cách hệ thống học máy có thể dễ bị thiên kiến của con người ảnh hưởng trong video sau:
Để biết ví dụ thực tế, hãy đọc về cách các sản phẩm như Google Tìm kiếm và Google Photos cải thiện khả năng thể hiện độ đa dạng của màu da thông qua Thang màu da Monk.
Có các phương pháp đáng tin cậy để xác định, đo lường và giảm thiểu độ lệch trong mô hình. Mô-đun Công bằng của khoá học Học máy ứng dụng cung cấp thông tin chuyên sâu về các kỹ thuật giảm thiểu thiên kiến và công bằng.
People + AI Research (PAIR) cung cấp các công cụ Khám phá AI tương tác về Đo lường tính công bằng và Thiên kiến ẩn để tìm hiểu các khái niệm này.
Để biết thêm các thuật ngữ liên quan đến Tính công bằng trong học máy, hãy xem Bảng thuật ngữ về học máy: Tính công bằng | Google dành cho nhà phát triển.
Trừ phi có lưu ý khác, nội dung của trang này được cấp phép theo Giấy phép ghi nhận tác giả 4.0 của Creative Commons và các mẫu mã lập trình được cấp phép theo Giấy phép Apache 2.0. Để biết thông tin chi tiết, vui lòng tham khảo Chính sách trang web của Google Developers. Java là nhãn hiệu đã đăng ký của Oracle và/hoặc các đơn vị liên kết với Oracle.
Cập nhật lần gần đây nhất: 2024-11-14 UTC.
[null,null,["Cập nhật lần gần đây nhất: 2024-11-14 UTC."],[[["Fairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions."],["Machine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation."],["Google has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity."],["Developers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR)."]]],[]]