أخلاقيات وسلامة الذكاء الاصطناعي وتعلُّم الآلة

يمكن أن تساهم تكنولوجيات الذكاء الاصطناعي في تغيير المجتمع بطرق مفيدة كثيرة، سواء كانت إيجابية أو سلبية. من المهمّ مراعاة التأثيرات الأخلاقية للنماذج والأنظمة التي تشكّل جزءًا منها.

يجب أن تعود مشاريع الذكاء الاصطناعي بالفائدة على المجتمع. يجب ألّا تتسبّب في إلحاق الضرر أو تكون عرضة لإساءة الاستخدام. يجب ألّا يساهموا في استمرار التحيزات أو تعزيزها أو تفاقمها. ويجب ألا تجمع هذه التطبيقات البيانات الشخصية أو تستخدمها بشكل غير مسؤول.

مبادئ الذكاء الاصطناعي من Google

تشجّع Google على تطوير تطبيقات تعلُّم الآلة والذكاء الاصطناعي التي تلتزم بمبادئ الذكاء الاصطناعي. تركّز مبادئ Google على المفاهيم التالية:

  • العدالة
  • الخصوصية
  • الشفافية
  • الأمان

العدالة

تجنَّب إثارة الانحياز غير العادل أو تعزيزه. تُظهر النماذج تحيزًا عندما تحتوي بيانات التدريب على بعض الخصائص التالية:

  • لا يعكس عدد مستخدمي التطبيق في العالم الحقيقي

  • الحفاظ على القرارات أو النتائج المتحيّزة، مثل قرارات العدالة الجنائية مثل مدد السجن

  • يستخدم ميزات ذات قدرة أكبر على التوقّع لمجموعات معيّنة من المستخدمين.

إنّ الأمثلة السابقة هي مجرد بعض الطرق التي تصبح بها النماذج متحيّزة. من الضروري فهم بياناتك بدقة لكشف أي تحيّز محتمل فيها وحلّه. الخطوة الأولى لتطوير نماذج عادلة هي التحقّق من أنّ بيانات التدريب تعكس توزيع المستخدمين بدقة. في ما يلي مزيد من الممارسات للمساعدة في إنشاء نماذج عادلة:

  • يمكنك تحديد المجموعات التي تم تمثيلها بشكلٍ غير كافٍ في مجموعات بيانات التقييم أو المجموعات التي قد تُظهر جودة نموذج أقل مقارنةً بالمجموعات الأخرى. قد تحتاج إلى زيادة عدد عيّنات مجموعة فرعية من المستخدمين لزيادة حضورهم في بيانات التدريب.

  • استخدِم مجموعات البيانات الذهبية (المعروفة أيضًا باسم مجموعات بيانات الأداء المرجعي) للتحقّق من صحة النموذج في ما يتعلّق بقضايا المساواة ورصد الانحياز الضمني.

  • تجنَّب تضمين ميزات حسّاسة في مجموعات البيانات، مثل الجنس أو الانتماء العرقي.

  • تجنَّب تضمين ميزات ذات تأثير تجريبي أو توضيحي منخفض، خاصةً في السياقات الحسّاسة التي يتم فيها استخدام النموذج المدّرب لتنفيذ مهام ذات تأثير كبير في مجالات مثل الرعاية الصحية والشؤون المالية والتعليم والوظائف وما إلى ذلك. على سبيل المثال، في نموذج للموافقة على القروض العقارية، لا تُدرِج الأسماء في بيانات التدريب. لا يقتصر الأمر على أنّ اسم مقدم الطلب غير ذي صلة بمهمة التوقّع، بل إنّ ترك سمة غير ذات صلة في مجموعة البيانات قد يؤدي أيضًا إلى إنشاء تحيز ضمني أو أضرار توزيعية. على سبيل المثال، قد يربط النموذج الأسماء الذكورية ب احتمالية أعلى لسداد القروض، أو العكس.

  • يمكنك قياس التأثير السلبي المحتمل الذي قد تحدثه توقّعات النموذج على مجموعات معيّنة، والتفكير في تقنيات تصحيح التحيز المتعمد إذا رصدت تأثيرًا سلبيًا في سياق حسّاس.

الخصوصية

يجب تضمين مبادئ التصميم التي تراعي الخصوصية منذ البداية.

في ما يلي القوانين والسياسات المتعلّقة بالخصوصية التي يجب أخذها في الاعتبار والالتزام بها:

بالإضافة إلى ذلك، احرص على إزالة جميع معلومات تحديد الهوية الشخصية (PII) من مجموعات البيانات والتأكّد من إعداد نماذج ومستودعات البيانات باستخدام سوى الأذونات المناسبة، على سبيل المثال، عدم السماح بالوصول العام إليها.

الشفافية

يخضع للمساءلة أمام البشر. على سبيل المثال، سهِّل على الآخرين فهم ما يفعله النموذج وطريقة تنفيذه وسبب تنفيذه. بطاقات النماذج توفّر نموذجًا لتوثيق النموذج وإنشاء عناصر شفافية.

الأمان

تصميم النماذج بحيث تعمل بأمان في الظروف الصعبة على سبيل المثال، اختبِر نموذجك باستخدام إدخالات عدوانية محتملة للتأكّد من أنّه آمن. بالإضافة إلى ذلك، تحقّق من حالات الفشل المحتمَلة. وعادةً ما تستخدِم الفِرق مجموعات بيانات مصمّمة خصيصًا لاختبار نماذجها باستخدام مدخلات أو شروط أدّت في السابق إلى تعذُّر نجاح النموذج.

التحقّق من الفهم

أنت بصدد تطوير نموذج للموافقة بسرعة على قروض السيارات. ما هي المغالطات الأخلاقية التي يجب مراعاتها؟
هل يساهم النموذج في ترسيخ التحيزات أو الصور النمطية الحالية؟
إجابة صحيحة. يجب تدريب النماذج على مجموعات بيانات عالية الجودة تم التحقّق منها بحثًا عن أي تحيزات أو آراء متحيّزة ضمنية محتملة.
هل يقدّم النموذج توقّعات بوقت استجابة منخفض بما يكفي؟
هل يمكن نشر النموذج على الأجهزة، مثل الهواتف؟

يجب دائمًا مراعاة السياقات الاجتماعية الأوسع نطاقًا التي تعمل فيها نماذجك. احرص على التأكّد من أنّ معالجة البيانات الحسّاسة لا تنتهك مسائل الخصوصية أو تؤدّي إلى استمرار التحيز أو التعدي على ملكية فكرية تابعة لشخص آخر.