التحدي التالي

يطرح ظهور النماذج التوليدية الكبيرة تحديات جديدة لتنفيذ ممارسات الذكاء الاصطناعي المسؤول بسبب إمكانات الإخراج المفتوحة المحتملة والعديد من الاستخدامات المحتملة للمنتجات النهائية. بالإضافة إلى مبادئ الذكاء الاصطناعي، وضعت Google سياسة الاستخدام المحظور للذكاء الاصطناعي التوليدي ومجموعة أدوات الذكاء الاصطناعي التوليدي للمطوّرين.

تقدّم Google أيضًا إرشادات حول نماذج الذكاء الاصطناعي التوليدي على:

ملخّص

إنّ تقييم تقنيات الذكاء الاصطناعي من حيث الإنصاف والمساءلة والأمان والخصوصية هو مفتاح تطوير الذكاء الاصطناعي بمسؤولية. يجب دمج عمليات التحقّق هذه في كل مرحلة من مراحل دورة حياة المنتج لضمان تطوير منتجات آمنة ومتساوية وموثوقة للجميع.

مزيد من المعلومات

أسباب الاهتمام بالذكاء الاصطناعي (AI) – تكنولوجيات الذكاء الاصطناعي من Google

الذكاء الاصطناعي التوليدي من Google

PAIR Explorable: What Have Language Models Learned? (الاستكشاف في PAIR: ما الذي تعلّمته النماذج اللغوية؟)

مجموعة أدوات الذكاء الاصطناعي المسؤول | TensorFlow