ความยุติธรรม
จัดทุกอย่างให้เป็นระเบียบอยู่เสมอด้วยคอลเล็กชัน
บันทึกและจัดหมวดหมู่เนื้อหาตามค่ากำหนดของคุณ
ความเป็นธรรมจะจัดการกับผลลัพธ์ที่อาจแตกต่างกันซึ่งผู้ใช้ปลายทางอาจได้รับ
ที่เกี่ยวข้องกับลักษณะที่ละเอียดอ่อน เช่น เชื้อชาติ รายได้ รสนิยมทางเพศ
หรือเพศ ผ่านการตัดสินใจแบบอัลกอริทึม ตัวอย่างเช่น อัลกอริทึมการจ้างงานอาจมีอคติในทางบวกหรือลบต่อผู้สมัครที่มีชื่อที่เชื่อมโยงกับเพศหรือเชื้อชาติใดเชื้อชาติหนึ่งหรือไม่
ดูข้อมูลเพิ่มเติมเกี่ยวกับวิธีที่ระบบแมชชีนเลิร์นนิงอาจได้รับผลกระทบจากอคติของมนุษย์
ในวิดีโอนี้
ตัวอย่างในโลกแห่งความเป็นจริง โปรดอ่านเกี่ยวกับวิธีที่ผลิตภัณฑ์ต่างๆ เช่น Google Search และ
Google Photos ปรับปรุงความหลากหลายของการแสดงสีผิวผ่านMonk Skin Tone Scale
มีวิธีการที่เชื่อถือได้ในการระบุ วัดผล และลดการให้น้ำหนักพิเศษในโมเดล โมดูลความเป็นธรรม
ของหลักสูตรเร่งรัดเกี่ยวกับแมชชีนเลิร์นนิง
จะเจาะลึกเกี่ยวกับความเป็นธรรมและเทคนิคการลดอคติ
People + AI Research (PAIR) มี AI Explorables แบบอินเทอร์แอกทีฟเกี่ยวกับการวัดความยุติธรรม
และอคติที่ซ่อนอยู่เพื่ออธิบาย
แนวคิดเหล่านี้
ดูข้อกำหนดเพิ่มเติมที่เกี่ยวข้องกับความเท่าเทียมของ ML ได้ที่อภิธานศัพท์แมชชีนเลิร์นนิง:
ความเท่าเทียม | Google for Developers
เนื้อหาของหน้าเว็บนี้ได้รับอนุญาตภายใต้ใบอนุญาตที่ต้องระบุที่มาของครีเอทีฟคอมมอนส์ 4.0 และตัวอย่างโค้ดได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0 เว้นแต่จะระบุไว้เป็นอย่างอื่น โปรดดูรายละเอียดที่นโยบายเว็บไซต์ Google Developers Java เป็นเครื่องหมายการค้าจดทะเบียนของ Oracle และ/หรือบริษัทในเครือ
อัปเดตล่าสุด 2025-07-27 UTC
[null,null,["อัปเดตล่าสุด 2025-07-27 UTC"],[[["\u003cp\u003eFairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions.\u003c/p\u003e\n"],["\u003cp\u003eMachine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation.\u003c/p\u003e\n"],["\u003cp\u003eGoogle has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity.\u003c/p\u003e\n"],["\u003cp\u003eDevelopers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR).\u003c/p\u003e\n"]]],[],null,["# Fairness\n\n\u003cbr /\u003e\n\n**Fairness** addresses the possible disparate outcomes end users may experience\nrelated to sensitive characteristics such as race, income, sexual orientation,\nor gender through algorithmic decision-making. For example, might a hiring\nalgorithm have biases for or against applicants with names associated with a\nparticular gender or ethnicity?\n\nLearn more about how machine learning systems might be susceptible to human bias\nin this video: \n\n\u003cbr /\u003e\n\nFor a real world example, read about how products such as Google Search and\nGoogle Photos improved diversity of skin tone representation through the\n[Monk Skin Tone Scale](https://blog.google/products/search/monk-skin-tone-scale/).\n\nThere are reliable methods of identifying, measuring, and mitigating bias in models. The [Fairness](/machine-learning/crash-course/fairness)\nmodule of [Machine Learning Crash Course](https://developers.google.com/machine-learning/crash-course)\nprovides an in-depth look at fairness and bias mitigation techniques.\n\n[People + AI Research](https://pair.withgoogle.com/) (PAIR) offers interactive\nAI Explorables on [Measuring Fairness](https://pair.withgoogle.com/explorables/measuring-fairness/)\nand [Hidden Bias](https://pair.withgoogle.com/explorables/hidden-bias/) to walk\nthrough these concepts.\nFor more terms related to ML Fairness, see [Machine Learning Glossary:\nFairness \\| Google for Developers](https://developers.google.com/machine-learning/glossary/fairness)."]]