ความรับผิดชอบ
ความรับผิดชอบหมายถึงการยอมรับความรับผิดชอบต่อผลกระทบของระบบ AI
ความรับผิดชอบมักเกี่ยวข้องกับความโปร่งใสหรือการแชร์ข้อมูลเกี่ยวกับลักษณะการทํางานของระบบและกระบวนการขององค์กร ซึ่งอาจรวมถึงการบันทึกและแชร์วิธีสร้าง ฝึก และประเมินโมเดลและชุดข้อมูล เว็บไซต์ต่อไปนี้อธิบายรูปแบบที่มีประโยชน์ 2 รูปแบบของเอกสารความรับผิดชอบ
มิติการแสดงความรับผิดชอบอีกประการหนึ่งคือความสามารถในการตีความ ซึ่งเกี่ยวข้องกับความเข้าใจในการตัดสินใจของโมเดล ML โดยที่มนุษย์สามารถระบุฟีเจอร์ที่ทําให้เกิดคําคาดการณ์ได้ นอกจากนี้ ความสามารถในการอธิบายคือความสามารถในการอธิบายการตัดสินอัตโนมัติของโมเดลในลักษณะที่มนุษย์เข้าใจ
อ่านเพิ่มเติมเกี่ยวกับการสร้างความไว้วางใจของผู้ใช้ในระบบ AI ได้ที่ส่วนความสามารถในการอธิบาย + ความไว้วางใจในคู่มือผู้ใช้ + AI
นอกจากนี้ คุณยังดูแหล่งข้อมูลเกี่ยวกับความสามารถในการอธิบายของ Google เพื่อดูตัวอย่างการใช้งานจริงและแนวทางปฏิบัติแนะนำได้ด้วย
เนื้อหาของหน้าเว็บนี้ได้รับอนุญาตภายใต้ใบอนุญาตที่ต้องระบุที่มาของครีเอทีฟคอมมอนส์ 4.0 และตัวอย่างโค้ดได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0 เว้นแต่จะระบุไว้เป็นอย่างอื่น โปรดดูรายละเอียดที่นโยบายเว็บไซต์ Google Developers Java เป็นเครื่องหมายการค้าจดทะเบียนของ Oracle และ/หรือบริษัทในเครือ
อัปเดตล่าสุด 2025-02-25 UTC
[null,null,["อัปเดตล่าสุด 2025-02-25 UTC"],[[["Accountability in AI involves taking ownership for the effects of a system, often achieved through transparency about the system's development and behavior."],["Transparency can be enhanced using documentation practices like Model Cards and Data Cards, which provide information about models and datasets."],["Interpretability and explainability are crucial aspects of accountability, enabling understanding of model decisions and providing human-understandable explanations for automated actions."],["Fostering user trust in AI systems requires focusing on explainability and transparency, with further resources available in Google's Responsible AI Practices and Explainability Resources."]]],[]]