التحدي التالي
تنظيم صفحاتك في مجموعات
يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
يطرح ظهور النماذج التوليدية الكبيرة
تحديات جديدة لتنفيذ ممارسات الذكاء الاصطناعي المسؤول بسبب
إمكانات الإخراج المفتوحة المحتملة والعديد من الاستخدامات المحتملة للمنتجات النهائية. بالإضافة إلى مبادئ الذكاء الاصطناعي، وضعت Google سياسة الاستخدام المحظور للذكاء الاصطناعي التوليدي
ومجموعة أدوات الذكاء الاصطناعي التوليدي للمطوّرين.
تقدّم Google أيضًا إرشادات حول نماذج الذكاء الاصطناعي التوليدي على:
ملخّص
إنّ تقييم تقنيات الذكاء الاصطناعي من حيث الإنصاف والمساءلة والأمان والخصوصية هو
مفتاح تطوير الذكاء الاصطناعي بمسؤولية. يجب دمج عمليات التحقّق هذه في كل مرحلة من مراحل دورة حياة المنتج لضمان تطوير منتجات آمنة ومتساوية وموثوقة للجميع.
مزيد من المعلومات
أسباب الاهتمام بالذكاء الاصطناعي (AI) – تكنولوجيات الذكاء الاصطناعي من Google
الذكاء الاصطناعي التوليدي من Google
PAIR Explorable: What Have Language Models Learned? (الاستكشاف في PAIR: ما الذي تعلّمته النماذج اللغوية؟)
مجموعة أدوات الذكاء الاصطناعي المسؤول | TensorFlow
إنّ محتوى هذه الصفحة مرخّص بموجب ترخيص Creative Commons Attribution 4.0 ما لم يُنصّ على خلاف ذلك، ونماذج الرموز مرخّصة بموجب ترخيص Apache 2.0. للاطّلاع على التفاصيل، يُرجى مراجعة سياسات موقع Google Developers. إنّ Java هي علامة تجارية مسجَّلة لشركة Oracle و/أو شركائها التابعين.
تاريخ التعديل الأخير: 2025-07-27 (حسب التوقيت العالمي المتفَّق عليه)
[null,null,["تاريخ التعديل الأخير: 2025-07-27 (حسب التوقيت العالمي المتفَّق عليه)"],[[["\u003cp\u003eGenerative AI models present new challenges to Responsible AI due to their open-ended output and varied uses, prompting the need for guidelines like Google's Generative AI Prohibited Use Policy and Toolkit for Developers.\u003c/p\u003e\n"],["\u003cp\u003eGoogle provides further resources on crucial aspects of generative AI, including safety, fairness, prompt engineering, and adversarial testing.\u003c/p\u003e\n"],["\u003cp\u003eBuilding AI responsibly requires thorough assessment of fairness, accountability, safety, and privacy throughout the entire product lifecycle.\u003c/p\u003e\n"],["\u003cp\u003eGoogle emphasizes the importance of Responsible AI and offers additional resources like the AI Principles, Generative AI information, and toolkits for developers.\u003c/p\u003e\n"]]],[],null,["# The next challenge\n\n\u003cbr /\u003e\n\nThe advent of large, generative models\nintroduces new challenges to implementing Responsible AI practices due to their\npotentially open-ended output capabilities and many potential downstream uses. In addition to the AI Principles, Google has a [Generative AI Prohibited Use Policy](https://policies.google.com/terms/generative-ai/use-policy)\nand [Generative AI Toolkit for Developers](https://ai.google.dev/responsible/docs).\n\nGoogle also offers guidance about generative AI models on:\n\n- [Safety](https://ai.google.dev/gemini-api/docs/safety-guidance)\n- [Prompt Engineering](/machine-learning/resources/prompt-eng)\n- [Adversarial Testing](/machine-learning/guides/adv-testing)\n\nSummary\n-------\n\nAssessing AI technologies for fairness, accountability, safety, and privacy is\nkey to building AI responsibly. These checks should be incorporated into every\nstage of the product lifecycle to ensure the development of safe, equitable, and\nreliable products for all.\n\nFurther learning\n----------------\n\n[Why we focus on AI -- Google AI](https://ai.google/why-ai/)\n\n[Google Generative AI](https://ai.google/discover/generativeai/)\n\n[PAIR Explorable: What Have Language Models Learned?](https://pair.withgoogle.com/explorables/fill-in-the-blank/)\n\n[Responsible AI Toolkit \\| TensorFlow](https://www.tensorflow.org/responsible_ai)"]]