أخلاقيات وسلامة الذكاء الاصطناعي وتعلُّم الآلة

بإمكان تعلُّم الآلة أن تغيّر المجتمع بعدة طرق هادفة، سواءً إيجابًا أو سلبًا. من الأهمية بمكان مراعاة الآثار الأخلاقية لنماذجك والأنظمة التي هي جزء منها.

مثل أي تكنولوجيا تم تطويرها في Google، يجب أن تفيد مشاريع تعلُّم الآلة المجتمع. ويجب ألا تسبب ضررًا أو تكون عرضة لإساءة الاستخدام. يجب ألا تستمر في التحيزات أو التحيزات أو تعززها أو تزيدها. يجب ألا تجمع البيانات الشخصية أو تستخدمها بشكل غير مسؤول.

مبادئ الذكاء الاصطناعي في Google

يجب أن تلتزم مشاريع تعلُّم الآلة بمبادئ الذكاء الاصطناعي في Google. إنّ موقع الممارسات الذكية للذكاء الاصطناعي (RAI) المسؤول يساعد موظفي Google في تطوير حلول تعلُّم الآلة السليمة بشكل أخلاقي تتوافق مع مبادئ الذكاء الاصطناعي في Google.

ممارسات RAI الذكية هي إرشادات قابلة للتنفيذ يمكن للفِرق تنفيذها من أجل تطوير الذكاء الاصطناعي وتعلُّم الآلة بشكل مسؤول. يجب أن تتقيّد حلول تعلُّم الآلة بإرشادات Google في المجالات التالية:

  • العدالة
  • الخصوصية
  • الشفافية
  • السلامة

إذا كان لديك أسئلة أو استفسارات تتعلّق بتعلُّم الآلة والأخلاقيات، يُرجى الرجوع إلى PCounsel وPrivacy Working Group المتعلق بمنتجك.

العدالة

تجنَّب إيجاد الانحياز غير العادل أو تعزيزه. تظهر النماذج التحيز عندما تحتوي بيانات التدريب الخاصة بها على بعض الخصائص التالية:

  • لا يعكس سكان العالم الحقيقي لمستخدميه.

  • يحافظ على القرارات أو النتائج المتحيزة، على سبيل المثال، قرارات العدالة الجنائية مثل أوقات الاعتقال.

  • يستخدم هذا الإعداد ميزات ذات قدرة أكبر على التوقّع لمجموعات معيّنة من المستخدمين.

الأمثلة السابقة هي مجرد بعض الطرق التي تصبح بها النماذج متحيزة. يعد فهم بياناتك بشكل شامل أمرًا بالغ الأهمية للكشف عن أي تحيزات محتملة تحتوي عليها وحلها. تتمثل الخطوة الأولى لتطوير نماذج عادلة في التحقق من أن بيانات التدريب تعكس توزيع المستخدمين بدقة. فيما يلي ممارسات إضافية للمساعدة في إنشاء نماذج عادلة:

  • حدد المجموعات محدودة التمثيل في مجموعات بيانات التقييم أو المجموعات التي قد تعاني من جودة نموذج أسوأ مقارنة بالمجموعات الأخرى. قد تحتاج إلى وضع عينة زائدة على مجموعة فرعية من المستخدمين لزيادة وجودهم في بيانات التدريب.

  • استخدم مجموعات البيانات الذهبية (المعروفة أيضًا باسم مجموعات بيانات قياس الأداء) للتحقق من صحة النموذج في ضوء مشكلات الإنصاف ورصد التحيز الضمني.

  • تجنَّب تضمين ميزات حسّاسة في مجموعات البيانات، مثل الجنس أو الانتماء العرقي.

  • تجنَّب تضمين ميزات ذات القليل من القوة التجريبية أو التوضيحية، ولكن خاصةً في السياقات الحسّاسة التي يتم فيها استخدام النموذج المدرَّب لأداء مهام عالية التأثير في مجالات مثل الرعاية الصحية والشؤون المالية والتعليم والتوظيف وما إلى ذلك. على سبيل المثال، في نموذج للموافقة على القروض المنزلية، لا تقوم بتضمين أسماء في بيانات التدريب. ليس فقط اسم مقدم الطلب غير ذي صلة بمهمة التنبؤ، ولكن إن ترك مثل هذه الميزة غير ذات الصلة في مجموعة البيانات قد يؤدي أيضًا إلى خلق تحيز ضمني أو ضرر احتمالية. على سبيل المثال، قد يربط النموذج أسماء الذكور باحتمالية أعلى للتسديد، أو العكس.

  • يمكنك قياس التأثير السلبي المحتمل الذي قد تحدثه تنبؤات النموذج على مجموعات معينة، والنظر في أساليب تصحيح التحيز المتعمّد إذا وجدت تأثيرًا سلبيًا في سياق حساس.

للحصول على مزيد من المعلومات حول الذكاء الاصطناعي والعدالة في تعلُّم الآلة، يُرجى الاطّلاع على صفحة "عدالة الممارسات الذكية" و وحدة العدالة في الدورة التدريبية لتعلُّم الآلة.

الخصوصية

تضمين مبادئ تصميم الخصوصية من البداية. مثل أيّ ميزة أو منتج جديد في Google، يجب أن تتم مراجعة نموذجك من قِبل مجموعة عمل الخصوصية التابعة لمنطقة المنتج. لذلك، أنشئ مستند تصميم الخصوصية مبكرًا للحصول على الملاحظات الأولية.

نذكر في ما يلي القوانين والسياسات المتعلقة بالخصوصية التي يجب أن تكون على دراية بها والالتزام بها:

في ما يلي ممارسات خصوصية خاصة بـ Google يجب الالتزام بها:

  • لوائح محو البيانات.

  • الرقم التعريفي الثنائي والإعداد (BCID) - المستوى 4 لمنع الرمز الضار أو المُخترَق من الوصول إلى نظامك.

  • أزِل جميع معلومات تحديد الهوية الشخصية من مجموعات البيانات وتأكَّد من إعداد النموذج ومستودعات البيانات بالأذونات المناسبة، على سبيل المثال، لا يمكن قراءته على مستوى العالم.

يقدّم الفيديو التالي نظرة عامة عالية المستوى على المشاكل المتعلّقة بالخصوصية:

لمزيد من المعلومات عن خصوصية الذكاء الاصطناعي وتعلُّم الآلة، يمكنك الاطّلاع على صفحة خصوصية الممارسات الذكية.

الشفافية

يخضع للمساءلة أمام البشر. على سبيل المثال، اجعل من السهل على الآخرين فهم ما يفعله نموذجك، وكيف يفعل، ولماذا يفعله. توفر بطاقات النماذج نموذجًا لتوثيق النموذج وإنشاء عناصر الشفافية.

للمزيد من المعلومات عن شفافية الذكاء الاصطناعي (AI) وتعلُّم الآلة، يمكنك الاطّلاع على صفحة شفافية الممارسات الذكية.

السلامة

تصميم نماذج للعمل بأمان في ظروف عدائية. على سبيل المثال، اختبر نموذجك مع مدخلات عدائية محتملة للتأكد من أن نموذجك آمن. بالإضافة إلى ذلك، تحقق من حالات الفشل المحتملة. تستخدم الفرق عادةً مجموعات بيانات مصممة بشكل خاص لاختبار نماذجها بالمدخلات أو الشروط التي تسببت في فشل النموذج في الماضي.

لمزيد من المعلومات حول الأمان، يُرجى الاطّلاع على صفحة الذكاء الاصطناعي المسؤول.

ضع في اعتبارك دائمًا السياقات الاجتماعية الأوسع التي تعمل نماذجك بداخلها. اعمل على التأكد من أن معالجة بياناتك الحساسة لا تنتهك مشكلات الخصوصية أو يكرر التحيز أو تنتهك الملكية الفكرية لشخص آخر.

للحصول على معلومات حول أخلاقيات الذكاء الاصطناعي التوليدي، راجِع مقالة الممارسات الذكية لذكاء الاصطناعي التوليدي على الذكاء الاصطناعي التوليدي.