จริยธรรมและความปลอดภัยเกี่ยวกับ AI และ ML
จัดทุกอย่างให้เป็นระเบียบอยู่เสมอด้วยคอลเล็กชัน
บันทึกและจัดหมวดหมู่เนื้อหาตามค่ากำหนดของคุณ
ML มีศักยภาพในการพลิกโฉมสังคมในหลายๆ ด้านที่สำคัญ ไม่ว่าจะเป็นด้านบวกหรือด้านลบ คุณควรพิจารณาถึงผลกระทบด้านจริยธรรมของโมเดลและระบบที่โมเดลเป็นส่วนหนึ่งของโมเดล
โปรเจ็กต์ ML ควรเป็นประโยชน์ต่อสังคม
ไม่ควรก่อให้เกิดอันตรายหรือมีแนวโน้มที่จะเกิดการละเมิด
เนื้อหาไม่ควรส่งเสริม ตอกย้ำ หรือทำให้อคติหรือความลำเอียงรุนแรงขึ้น
ไม่ควรเก็บรวบรวมหรือใช้ข้อมูลส่วนบุคคลอย่างไม่มีความรับผิดชอบ
หลักการเกี่ยวกับ AI ของ Google
Google สนับสนุนการพัฒนาแอปพลิเคชัน ML และ AI ที่เป็นไปตามหลักการเกี่ยวกับ AI อย่างมีความรับผิดชอบ
นอกจากการปฏิบัติตามหลักการเกี่ยวกับ AI อย่างมีความรับผิดชอบแล้ว ให้มุ่งพัฒนาระบบที่รวมสิ่งต่อไปนี้
- ความยุติธรรม
- ความเป็นส่วนตัว
- ความโปร่งใส
- ความปลอดภัย
ความยุติธรรม
หลีกเลี่ยงการสร้างหรือส่งเสริมอคติที่ไม่เป็นธรรม
โมเดลจะแสดงอคติเมื่อข้อมูลการฝึกอบรมมีลักษณะต่อไปนี้
ไม่ได้แสดงถึงจำนวนผู้ใช้จริง
เก็บรักษาผลการตัดสินหรือผลลัพธ์ที่มีอคติ เช่น ผลการตัดสินทางกระบวนการยุติธรรมอาญา เช่น ระยะเวลาการกักขัง
ใช้ฟีเจอร์ที่คาดการณ์ได้แม่นยำมากขึ้นสําหรับผู้ใช้บางกลุ่ม
ตัวอย่างก่อนหน้านี้เป็นเพียงตัวอย่างบางส่วนที่ทําให้โมเดลมีอคติ การทําความเข้าใจข้อมูลอย่างละเอียดเป็นสิ่งสําคัญในการค้นพบและแก้ไขอคติที่อาจเกิดขึ้น ขั้นตอนแรกในการพัฒนารูปแบบที่เป็นธรรมคือการยืนยันว่าข้อมูลการฝึกอบรมแสดงถึงข้อมูลประชากรของผู้ใช้อย่างถูกต้อง แนวทางปฏิบัติเพิ่มเติมต่อไปนี้จะช่วยสร้างโมเดลที่เป็นธรรม
ระบุกลุ่มที่แสดงข้อมูลไม่เพียงพอในชุดข้อมูลการประเมินหรือกลุ่มที่อาจพบปัญหาคุณภาพโมเดลแย่กว่ากลุ่มอื่นๆ คุณอาจต้องสุ่มตัวอย่างกลุ่มย่อยของผู้ใช้ให้มากขึ้นเพื่อเพิ่มจํานวนผู้ใช้ในกลุ่มนั้นในข้อมูลการฝึก
ใช้ชุดข้อมูลโกลด์ (หรือที่เรียกว่าชุดข้อมูลการเปรียบเทียบ) เพื่อตรวจสอบโมเดลเกี่ยวกับปัญหาความยุติธรรมและตรวจหาอคติแฝง
หลีกเลี่ยงการใส่คุณลักษณะที่มีความละเอียดอ่อนในชุดข้อมูล เช่น เพศหรือเชื้อชาติ
หลีกเลี่ยงการใส่ฟีเจอร์ที่มีข้อมูลเชิงประจักษ์หรือความสามารถในการอธิบายน้อย โดยเฉพาะในบริบทที่มีความละเอียดอ่อนซึ่งใช้โมเดลที่ผ่านการฝึกอบรมเพื่อทำงานที่มีผลกระทบสูงในด้านต่างๆ เช่น การดูแลสุขภาพ การเงิน การศึกษา การจ้างงาน และอื่นๆ เช่น ในโมเดลสําหรับอนุมัติการจํานองบ้าน อย่าใส่ชื่อไว้ในข้อมูลการฝึก ชื่อของผู้สมัครไม่เพียงแต่ไม่เกี่ยวข้องกับงานการคาดการณ์เท่านั้น แต่ยังอาจก่อให้เกิดอคติแฝงหรืออันตรายในการจัดสรรหากยังคงอยู่ในชุดข้อมูล เช่น โมเดลอาจเชื่อมโยงชื่อผู้ชายกับโอกาสในการชําระคืนที่สูงขึ้น หรือในทางกลับกัน
วัดผลกระทบเชิงลบที่อาจเกิดขึ้นจากการคาดการณ์ของโมเดลที่มีต่อกลุ่มหนึ่งๆ และพิจารณาเทคนิคการแก้ไขอคติโดยเจตนาหากคุณพบผลกระทบเชิงลบในบริบทที่ละเอียดอ่อน
ความเป็นส่วนตัว
ใช้หลักการออกแบบที่ให้ความสำคัญเรื่องความเป็นส่วนตัวตั้งแต่ต้น
ต่อไปนี้คือกฎหมายและนโยบายที่เกี่ยวข้องกับความเป็นส่วนตัวที่ควรทราบและปฏิบัติตาม
นอกจากนี้ อย่าลืมนําข้อมูลส่วนบุคคลที่ระบุตัวบุคคลนั้นได้ (PII) ทั้งหมดออกจากชุดข้อมูล และตรวจสอบว่าโมเดลและที่เก็บข้อมูลได้รับการตั้งค่าให้มีสิทธิ์ที่เหมาะสม เช่น ไม่ได้ตั้งค่าให้ผู้ใช้ทุกคนอ่านได้
ความโปร่งใส
รับผิดชอบต่อผู้ใช้ เช่น ช่วยให้ผู้อื่นเข้าใจสิ่งที่โมเดลของคุณทํา วิธีทํา และเหตุผลที่ทํา
การ์ดโมเดล
มีเทมเพลตสำหรับบันทึกโมเดลและสร้างรายการที่แสดงความโปร่งใส
ความปลอดภัย
ออกแบบโมเดลให้ทำงานได้อย่างปลอดภัยในสภาพแวดล้อมที่ไม่เอื้ออำนวย เช่น ทดสอบโมเดลด้วยอินพุตที่อาจเป็นอันตรายเพื่อยืนยันว่าโมเดลปลอดภัย
นอกจากนี้ ให้ตรวจสอบเงื่อนไขที่อาจทำให้เกิดข้อผิดพลาด โดยทั่วไปแล้ว ทีมจะใช้ชุดข้อมูลที่ออกแบบมาเป็นพิเศษเพื่อทดสอบโมเดลด้วยอินพุตหรือเงื่อนไขที่ทําให้โมเดลไม่ประสบความสําเร็จในอดีต
ทดสอบความเข้าใจ
คุณกําลังพัฒนาโมเดลเพื่ออนุมัติสินเชื่อรถยนต์อย่างรวดเร็ว คุณควรพิจารณาถึงผลกระทบด้านจริยธรรมใดบ้าง
โมเดลส่งเสริมอคติหรือแบบแผนที่มีอยู่หรือไม่
ถูกต้อง โมเดลควรได้รับการฝึกจากชุดข้อมูลคุณภาพสูงที่ผ่านการตรวจสอบเพื่อหาอคติหรืออคติแฝง
โมเดลแสดงการคาดการณ์โดยมีเวลาในการตอบสนองต่ำพอไหม
โมเดลนี้นำไปติดตั้งใช้งานในอุปกรณ์ต่างๆ เช่น โทรศัพท์ ได้ไหม
พิจารณาบริบททางสังคมที่กว้างขึ้นเสมอเมื่อใช้โมเดล ตรวจสอบว่าการนําข้อมูลที่ละเอียดอ่อนไปใช้ไม่ละเมิดปัญหาด้านความเป็นส่วนตัว ส่งเสริมอคติ หรือละเมิดทรัพย์สินทางปัญญาของผู้อื่น
เนื้อหาของหน้าเว็บนี้ได้รับอนุญาตภายใต้ใบอนุญาตที่ต้องระบุที่มาของครีเอทีฟคอมมอนส์ 4.0 และตัวอย่างโค้ดได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0 เว้นแต่จะระบุไว้เป็นอย่างอื่น โปรดดูรายละเอียดที่นโยบายเว็บไซต์ Google Developers Java เป็นเครื่องหมายการค้าจดทะเบียนของ Oracle และ/หรือบริษัทในเครือ
อัปเดตล่าสุด 2025-07-27 UTC
[null,null,["อัปเดตล่าสุด 2025-07-27 UTC"],[[["\u003cp\u003eML models should benefit society and avoid causing harm, bias, or misuse of personal data.\u003c/p\u003e\n"],["\u003cp\u003eGoogle's AI principles emphasize fairness, privacy, transparency, and safety in ML development.\u003c/p\u003e\n"],["\u003cp\u003eFairness in models requires addressing potential biases in training data and ensuring equitable outcomes for all user groups.\u003c/p\u003e\n"],["\u003cp\u003ePrivacy considerations involve adhering to relevant regulations, protecting personal data, and ensuring secure data handling practices.\u003c/p\u003e\n"],["\u003cp\u003eTransparency and safety involve making model functionality understandable, documenting model details, and designing models to operate securely and reliably.\u003c/p\u003e\n"]]],[],null,["# AI and ML ethics and safety\n\nML has the potential to transform society in many meaningful ways,\neither positively or negatively. It's critical to consider the ethical\nimplications of your models and the systems they're a part of.\nYour ML projects should benefit society. They shouldn't cause harm or be susceptible to misuse. They shouldn't perpetuate, reinforce, or exacerbate biases or prejudices. They shouldn't collect or use personal data irresponsibly.\n\n\u003cbr /\u003e\n\nGoogle's AI principles\n----------------------\n\nGoogle advocates developing ML and AI applications that adhere to its\n[Responsible AI principles](https://ai.google/responsibility/principles/).\n\nBeyond adhering to responsible AI principles, aim to develop systems\nthat incorporate the following:\n\n- Fairness\n- Privacy\n- Transparency\n- Safety\n\n### Fairness\n\nAvoid creating or reinforcing unfair\n[bias](/machine-learning/glossary#bias-ethicsfairness).\nModels exhibit bias when their\ntraining data has some of the following characteristics:\n\n- Doesn't reflect the real-world population of\n their users.\n\n- Preserves biased decisions or outcomes, for example, criminal justice\n decisions like incarceration times.\n\n- Uses features with more predictive power for certain groups of users.\n\nThe previous examples are just some ways models become biased. Understanding\nyour data thoroughly is critical for uncovering and resolving any potential\nbiases it contains. The first step for developing fair models is verifying the\ntraining data accurately reflects the distribution of your users. The following\nare further practices to help create fair models:\n\n- Identify underrepresented groups in evaluation datasets or groups that might\n experience worse model quality compared to other groups. You might need to\n oversample a subgroup of your users to increase their presence in the\n training data.\n\n- Use\n [golden datasets](https://developers.google.com/machine-learning/glossary#golden-dataset)\n (also known as benchmark datasets) to validate the model against fairness\n issues and detect implicit bias.\n\n- Avoid including sensitive features in datasets, like gender or ethnicity.\n\n- Avoid including features with little empirical or explanatory power, but\n especially in sensitive contexts where the trained model is used to perform\n high-impact tasks in areas such as healthcare, finance, education,\n employment, and so forth. For example, in a model for approving home loans,\n don't include names in the training data. Not only is an applicant's name\n irrelevant to the prediction task, but leaving such an irrelevant feature\n in the dataset also has the potential to create implicit bias or\n allocative harms. For instance, the model might correlate male names with\n a higher probability for repayment, or vice versa.\n\n- Measure potential adverse impact a model's predictions might have on\n particular groups, and consider intentional bias correction techniques if\n you find adverse impact in a sensitive context.\n\n### Privacy\n\nIncorporate privacy design principles from the beginning.\n\nThe following are privacy related laws and policies to be aware of and\nadhere to:\n\n- [European Union's Digital Markets Act (DMA)](https://wikipedia.org/wiki/Digital_Markets_Act)\n for consent to share or use personal data.\n\n- [European Union GDPR](https://wikipedia.org/wiki/General_Data_Protection_Regulation) laws.\n\nMoreover, be sure to remove all personally identifiable information (PII) from\ndatasets and confirm your model and data repositories are set up with the right\npermissions, for example, not world-readable.\n\n\n### Transparency\n\nBe accountable to people. For example, make it easy for others to\nunderstand what your model does, how it does it, and why it does it.\n\n[Model cards](https://modelcards.withgoogle.com/face-detection)\n\nprovide a template to document your model and create transparency artifacts.\n\n### Safety\n\nDesign models to operate safely in adversarial conditions. For example, test\nyour model with potential hostile inputs to confirm your model is secure.\nFurthermore, check for potential failure conditions. Teams typically use\nspecially designed datasets to test their models with inputs or conditions that\ncaused the model to fail in the past.\n\n### Check Your Understanding\n\nYou're developing a model to quickly approve auto loans. What ethical implications should you consider? \nDoes the model perpetuate existing biases or stereotypes? \nCorrect. Models should be trained on high-quality datasets that have been inspected for potential implicit biases or prejudices. \nDoes the model serve predictions with low-enough latency? \nCan the model be deployed to devices, like phones? \n\nAlways consider the broader social contexts your models operate within. Work to\nbe sure your handling of sensitive data doesn't violate privacy issues,\nperpetuate bias, or infringe on someone else's intellectual property."]]