ความท้าทายถัดไป
จัดทุกอย่างให้เป็นระเบียบอยู่เสมอด้วยคอลเล็กชัน
บันทึกและจัดหมวดหมู่เนื้อหาตามค่ากำหนดของคุณ
โมเดล Generative ขนาดใหญ่ที่เข้ามามีบทบาทได้ก่อให้เกิดความท้าทายใหม่ๆ ในการใช้แนวทางปฏิบัติด้าน AI อย่างมีความรับผิดชอบ เนื่องจากความสามารถในการแสดงผลที่อาจไม่มีที่สิ้นสุดและการใช้งานที่อาจเกิดขึ้นได้มากมายในลำดับถัดไป นอกจากหลักการเกี่ยวกับ AI แล้ว Google ยังมีนโยบายการใช้งานที่ไม่อนุญาตสำหรับ Generative AI และชุดเครื่องมือ Generative AI สําหรับนักพัฒนาซอฟต์แวร์
นอกจากนี้ Google ยังมีคําแนะนําเกี่ยวกับโมเดล Generative AI ในส่วนต่อไปนี้
สรุป
การประเมินเทคโนโลยี AI เพื่อดูความเป็นธรรม ความรับผิดชอบ ความปลอดภัย และความเป็นส่วนตัวเป็นกุญแจสำคัญในการสร้าง AI อย่างมีความรับผิดชอบ คุณควรรวมการตรวจสอบเหล่านี้ไว้ในทุกขั้นตอนของวงจรผลิตภัณฑ์เพื่อให้มั่นใจว่าการพัฒนาผลิตภัณฑ์จะปลอดภัย เป็นธรรม และเชื่อถือได้สำหรับทุกคน
การเรียนรู้เพิ่มเติม
เหตุผลที่เรามุ่งเน้นที่ AI - AI ของ Google
Generative AI ของ Google
PAIR Explorable: What Have Language Models Learned?
ชุดเครื่องมือ AI ที่มีความรับผิดชอบ | TensorFlow
เนื้อหาของหน้าเว็บนี้ได้รับอนุญาตภายใต้ใบอนุญาตที่ต้องระบุที่มาของครีเอทีฟคอมมอนส์ 4.0 และตัวอย่างโค้ดได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0 เว้นแต่จะระบุไว้เป็นอย่างอื่น โปรดดูรายละเอียดที่นโยบายเว็บไซต์ Google Developers Java เป็นเครื่องหมายการค้าจดทะเบียนของ Oracle และ/หรือบริษัทในเครือ
อัปเดตล่าสุด 2025-07-27 UTC
[null,null,["อัปเดตล่าสุด 2025-07-27 UTC"],[[["\u003cp\u003eGenerative AI models present new challenges to Responsible AI due to their open-ended output and varied uses, prompting the need for guidelines like Google's Generative AI Prohibited Use Policy and Toolkit for Developers.\u003c/p\u003e\n"],["\u003cp\u003eGoogle provides further resources on crucial aspects of generative AI, including safety, fairness, prompt engineering, and adversarial testing.\u003c/p\u003e\n"],["\u003cp\u003eBuilding AI responsibly requires thorough assessment of fairness, accountability, safety, and privacy throughout the entire product lifecycle.\u003c/p\u003e\n"],["\u003cp\u003eGoogle emphasizes the importance of Responsible AI and offers additional resources like the AI Principles, Generative AI information, and toolkits for developers.\u003c/p\u003e\n"]]],[],null,["# The next challenge\n\n\u003cbr /\u003e\n\nThe advent of large, generative models\nintroduces new challenges to implementing Responsible AI practices due to their\npotentially open-ended output capabilities and many potential downstream uses. In addition to the AI Principles, Google has a [Generative AI Prohibited Use Policy](https://policies.google.com/terms/generative-ai/use-policy)\nand [Generative AI Toolkit for Developers](https://ai.google.dev/responsible/docs).\n\nGoogle also offers guidance about generative AI models on:\n\n- [Safety](https://ai.google.dev/gemini-api/docs/safety-guidance)\n- [Prompt Engineering](/machine-learning/resources/prompt-eng)\n- [Adversarial Testing](/machine-learning/guides/adv-testing)\n\nSummary\n-------\n\nAssessing AI technologies for fairness, accountability, safety, and privacy is\nkey to building AI responsibly. These checks should be incorporated into every\nstage of the product lifecycle to ensure the development of safe, equitable, and\nreliable products for all.\n\nFurther learning\n----------------\n\n[Why we focus on AI -- Google AI](https://ai.google/why-ai/)\n\n[Google Generative AI](https://ai.google/discover/generativeai/)\n\n[PAIR Explorable: What Have Language Models Learned?](https://pair.withgoogle.com/explorables/fill-in-the-blank/)\n\n[Responsible AI Toolkit \\| TensorFlow](https://www.tensorflow.org/responsible_ai)"]]