ความยุติธรรม
ความเป็นธรรมเกี่ยวข้องกับผลลัพธ์ที่แตกต่างกันที่ผู้ใช้ปลายทางอาจพบซึ่งเกี่ยวข้องกับลักษณะที่ละเอียดอ่อน เช่น เชื้อชาติ รายได้ วิถีทางเพศ หรือเพศผ่านการทําการตัดสินใจด้วยอัลกอริทึม เช่น อัลกอริทึมการจ้างงานอาจมีอคติต่อหรือสนับสนุนผู้สมัครที่มีชื่อเชื่อมโยงกับเพศหรือชาติพันธุ์หนึ่งๆ หรือไม่
ดูข้อมูลเพิ่มเติมเกี่ยวกับวิธีที่ระบบแมชชีนเลิร์นนิงอาจได้รับผลกระทบจากอคติของมนุษย์ได้ในวิดีโอนี้
ดูตัวอย่างในชีวิตจริงได้จากผลิตภัณฑ์ต่างๆ เช่น Google Search และ Google Photos ที่ปรับปรุงความหลากหลายของการแสดงสีผิวผ่าน Monk Skin Tone Scale
มีวิธีการที่เชื่อถือได้ในการระบุ วัด และลดอคติในโมเดล โมดูลความเป็นธรรมของหลักสูตรเร่งรัดเกี่ยวกับแมชชีนเลิร์นนิงจะอธิบายเทคนิคต่างๆ เกี่ยวกับความเป็นธรรมและการลดอคติอย่างละเอียด
People + AI Research (PAIR) มีชิ้นงานแบบอินเทอร์แอกทีฟที่สำรวจ AI เกี่ยวกับการวัดความยุติธรรมและอคติที่ซ่อนอยู่เพื่ออธิบายแนวคิดเหล่านี้
ดูคำศัพท์เพิ่มเติมที่เกี่ยวข้องกับความยุติธรรมของ ML ได้ที่อภิธานศัพท์แมชชีนเลิร์นนิง: ความยุติธรรม | Google for Developers
เนื้อหาของหน้าเว็บนี้ได้รับอนุญาตภายใต้ใบอนุญาตที่ต้องระบุที่มาของครีเอทีฟคอมมอนส์ 4.0 และตัวอย่างโค้ดได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0 เว้นแต่จะระบุไว้เป็นอย่างอื่น โปรดดูรายละเอียดที่นโยบายเว็บไซต์ Google Developers Java เป็นเครื่องหมายการค้าจดทะเบียนของ Oracle และ/หรือบริษัทในเครือ
อัปเดตล่าสุด 2024-11-14 UTC
[null,null,["อัปเดตล่าสุด 2024-11-14 UTC"],[[["Fairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions."],["Machine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation."],["Google has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity."],["Developers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR)."]]],[]]