Tính công bằng
Sử dụng bộ sưu tập để sắp xếp ngăn nắp các trang
Lưu và phân loại nội dung dựa trên lựa chọn ưu tiên của bạn.
Tính công bằng đề cập đến những kết quả có thể khác biệt mà người dùng cuối có thể gặp phải liên quan đến các đặc điểm nhạy cảm như chủng tộc, thu nhập, xu hướng tình dục hoặc giới tính thông qua việc đưa ra quyết định dựa trên thuật toán. Ví dụ: liệu thuật toán tuyển dụng có thiên vị đối với hoặc chống lại những người có tên liên quan đến một giới tính hoặc sắc tộc cụ thể không?
Tìm hiểu thêm về cách các hệ thống học máy có thể chịu ảnh hưởng của thành kiến của con người trong video này:
Để xem ví dụ thực tế, hãy đọc về cách các sản phẩm như Google Tìm kiếm và Google Photos cải thiện tính đa dạng của việc thể hiện tông da thông qua Thang phân loại tông da của Monk.
Có những phương pháp đáng tin cậy để xác định, đo lường và giảm thiểu độ sai lệch trong các mô hình. Mô-đun Tính công bằng của Khoá học học máy ứng dụng cung cấp thông tin chi tiết về tính công bằng và các kỹ thuật giảm thiểu thiên kiến.
People + AI Research (PAIR) cung cấp các công cụ AI có thể khám phá mang tính tương tác về Đo lường tính công bằng và Thiên kiến tiềm ẩn để giải thích những khái niệm này.
Để biết thêm các thuật ngữ liên quan đến tính công bằng trong học máy, hãy xem Thuật ngữ về học máy: Tính công bằng | Google for Developers.
Trừ phi có lưu ý khác, nội dung của trang này được cấp phép theo Giấy phép ghi nhận tác giả 4.0 của Creative Commons và các mẫu mã lập trình được cấp phép theo Giấy phép Apache 2.0. Để biết thông tin chi tiết, vui lòng tham khảo Chính sách trang web của Google Developers. Java là nhãn hiệu đã đăng ký của Oracle và/hoặc các đơn vị liên kết với Oracle.
Cập nhật lần gần đây nhất: 2025-07-27 UTC.
[null,null,["Cập nhật lần gần đây nhất: 2025-07-27 UTC."],[[["\u003cp\u003eFairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions.\u003c/p\u003e\n"],["\u003cp\u003eMachine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation.\u003c/p\u003e\n"],["\u003cp\u003eGoogle has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity.\u003c/p\u003e\n"],["\u003cp\u003eDevelopers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR).\u003c/p\u003e\n"]]],[],null,["# Fairness\n\n\u003cbr /\u003e\n\n**Fairness** addresses the possible disparate outcomes end users may experience\nrelated to sensitive characteristics such as race, income, sexual orientation,\nor gender through algorithmic decision-making. For example, might a hiring\nalgorithm have biases for or against applicants with names associated with a\nparticular gender or ethnicity?\n\nLearn more about how machine learning systems might be susceptible to human bias\nin this video: \n\n\u003cbr /\u003e\n\nFor a real world example, read about how products such as Google Search and\nGoogle Photos improved diversity of skin tone representation through the\n[Monk Skin Tone Scale](https://blog.google/products/search/monk-skin-tone-scale/).\n\nThere are reliable methods of identifying, measuring, and mitigating bias in models. The [Fairness](/machine-learning/crash-course/fairness)\nmodule of [Machine Learning Crash Course](https://developers.google.com/machine-learning/crash-course)\nprovides an in-depth look at fairness and bias mitigation techniques.\n\n[People + AI Research](https://pair.withgoogle.com/) (PAIR) offers interactive\nAI Explorables on [Measuring Fairness](https://pair.withgoogle.com/explorables/measuring-fairness/)\nand [Hidden Bias](https://pair.withgoogle.com/explorables/hidden-bias/) to walk\nthrough these concepts.\nFor more terms related to ML Fairness, see [Machine Learning Glossary:\nFairness \\| Google for Developers](https://developers.google.com/machine-learning/glossary/fairness)."]]