مقدّمة عن الذكاء الاصطناعي المتجاوب مع مختلف الأجهزة

كيف ننشئ أنظمة الذكاء الاصطناعي بمسؤولية على نطاق واسع؟ اطّلِع على معلومات حول الذكاء الاصطناعي (AI) المسؤول والمفاهيم والعبارات ذات الصلة وكيفية تطبيق هذه الممارسات في المنتجات.

المقدمة

تعتمد الذكاء الاصطناعي على العديد من التطبيقات والخدمات التي يستخدمها الأشخاص في حياتهم اليومية. مع مليارات المستخدمين للذكاء الاصطناعي في مختلف المجالات بدءًا من الأنشطة التجارية وصولاً إلى مجال الرعاية الصحية والتعليم، من المهم أن تعمل شركات الذكاء الاصطناعي الرائدة في ضمان أن تكون فوائد هذه التكنولوجيا تفوق الأضرار التي تحدث، وذلك من أجل توفير تجارب أكثر أمانًا وموثوقية للجميع.

يراعي الذكاء الاصطناعي المسؤول التأثير المجتمعي لتطوير هذه التقنيات ونطاقها، بما في ذلك الأذى والمزايا المحتملة. توفّر مبادئ الذكاء الاصطناعي إطار عمل يتضمّن أهداف تطبيقات الذكاء الاصطناعي والتطبيقات التي لن نتابع تطويرها.

أبعاد الذكاء الاصطناعي المسؤولة

مع تسارع تطوّر الذكاء الاصطناعي ويصبح أكثر شيوعًا، من المهم دمج ممارسات الذكاء الاصطناعي المسؤولة في كل مرحلة من مراحل سير العمل، بدءًا من التفكير وصولاً إلى الإطلاق. المكوّنات التالية هي المكوّنات الأساسية للذكاء الاصطناعي المسؤول، ومن المهم النظر فيها طوال مراحل المنتج.

العدالة

تعالج الاستخدام العادل النتائج المحتملة المختلفة التي قد يلاحظها المستخدمون في ما يتعلق بالسمات الحسّاسة، مثل العِرق أو الدخل أو التوجّه الجنسي أو الجنس من خلال اتّخاذ القرارات الخوارزمية. على سبيل المثال، هل يمكن أن تكون خوارزمية التوظيف متحيّزة أو ضد مقدّمي الطلبات الذين لديهم أسماء مرتبطة بجنس أو عِرق معيّن؟

يمكنك التعرّف على المزيد من المعلومات حول كيفية تعرُّض أنظمة تعلُّم الآلة للانحياز البشري في هذا الفيديو:

تعرَّف على كيفية استفادة منتجات مثل "بحث Google" و"صور Google" من تنوّع تمثيل لون البشرة.

للاطّلاع على المزيد من المصطلحات المتعلّقة بنزاهة تعلُّم الآلة، يُرجى الاطّلاع على مسرد مصطلحات تعلُّم الآلة: العدالة | Google for Developers. للاطّلاع على المزيد من المعلومات، توفّر وحدة Fairness في الدورة التدريبية لتعلّم الآلة مقدمة حول مبدأ تعلُّم الآلة.

يقدّم الأشخاص + أبحاث الذكاء الاصطناعي (PAIR) عروضًا تفاعلية قابلة للاستكشاف من خلال الذكاء الاصطناعي، بما في ذلك Measuring Fairness وHidden Bias للتعرّف على هذه المفاهيم.

المساءلة

يشير مصطلح المساءلة إلى تحمّل المسؤولية عن تأثيرات نظام الذكاء الاصطناعي (AI). ويشمل ذلك الشفافية أو مشاركة معلومات حول سلوك النظام والعملية التنظيمية، وقد يشمل ذلك توثيق كيفية إنشاء النماذج ومجموعات البيانات وتدريبها وتقييمها. تُعدّ بطاقات النماذج وبطاقات البيانات أمثلة على عناصر الشفافية التي يمكن أن تساعد في تنظيم الحقائق الأساسية لنماذج تعلُّم الآلة ومجموعات البيانات بطريقة منظَّمة.

هناك سمة أخرى من المساءلة وهي التفسيرية، التي تتضمن فهم قرارات نماذج تعلُّم الآلة، حيث يتمكّن البشر من تحديد الميزات التي تؤدي إلى توقّع. علاوةً على ذلك، فإنّ التفسيرات هي إمكانية شرح القرارات المبرمَجة للنموذج بطريقة تسمح للمستخدمين بفهمها.

يمكنك الاطّلاع على المزيد من المعلومات عن بناء ثقة المستخدم في أنظمة الذكاء الاصطناعي (AI) في الفصل الخاص بالتفسيرات والثقة في دليل الأشخاص + الذكاء الاصطناعي، وقسم التفسيرات في ممارسات الذكاء الاصطناعي المسؤولة من Google.

دفاع

يتضمّن أمان الذكاء الاصطناعي مجموعة من التصميمات والأساليب التشغيلية التي يمكن اتّباعها لتجنّب حدوث إجراءات يمكن أن تتسبّب بضرر عمدًا أو عن غير قصد. على سبيل المثال، هل تعمل الأنظمة على النحو المطلوب، حتى في حال اختراق الأمان أو هجمة موجّهة؟ هل نظام الذكاء الاصطناعي (AI) فعّال بما يكفي لتشغيله بأمان حتى في حال حدوث اضطرابات؟ كيف تخطط مسبقًا لمنع المخاطر أو تجنُّبها؟ هل نظامك موثوق به ومستقر تحت الضغط؟

يوضّح قسم "الأمان" في ممارسات الذكاء الاصطناعي المسؤولة من Google الممارسات المقترَحة لحماية أنظمة الذكاء الاصطناعي (AI) من الهجمات، بما في ذلك الاختبار العدائي. يمكنك الاطّلاع على مزيد من المعلومات حول عملنا في هذا المجال والدروس المستفادة في مشاركة مدونة Keyword، من فريق الذكاء الاصطناعي في Google: المخترقون الأخلاقيون الذين يحرصون على أمان الذكاء الاصطناعي.

الخصوصية

تتضمّن ممارسات الخصوصية في تقنيات الذكاء الاصطناعي المسؤولة (راجع قسم "الخصوصية" ضمن ممارسات الذكاء الاصطناعي المسؤولة من Google التفكير في الآثار المترتبة على الخصوصية في استخدام البيانات الحسّاسة. لا يشمل ذلك احترام المتطلبات القانونية والتنظيمية فحسب، بل ضَع في اعتبارك المعايير الاجتماعية والتوقّعات الفردية المعتادة. على سبيل المثال، ما هي الإجراءات الوقائية التي يجب اتخاذها لضمان خصوصية الأفراد، مع الأخذ في الاعتبار أن نماذج تعلُّم الآلة قد تتذكر أو تكشف عن جوانب البيانات التي تعرّضوا لها؟ ما هي الخطوات المطلوبة لضمان الشفافية والتحكم بصورة كافية في المستخدمين؟

اطّلِع على مزيد من المعلومات عن خصوصية تعلُّم الآلة من خلال التعليمات التفصيلية التفاعلية التي تقدّمها قناة PAIR Explorables:

الذكاء الاصطناعي المتجاوب مع مختلف الأجهزة/نماذج مولّدة

يطرح إنشاء نماذج جيل كبيرة وكبيرة تحديات جديدة لتنفيذ ممارسات الذكاء الاصطناعي المسؤولة بسبب إمكانات الإخراج المفتوح والكثير من الاستخدامات النهائية المحتملة. بالإضافة إلى مبادئ الذكاء الاصطناعي (AI)، تتّبع Google سياسة استخدام الذكاء الاصطناعي المحظورة ودليل الذكاء الاصطناعي الجيلي لمطوّري البرامج.

يمكنك الاطّلاع على المزيد من المعلومات عن كيفية استخدام الفِرق في Google للذكاء الاصطناعي لإنشاء تجارب جديدة للمستخدمين في Google Generative AI. في هذا الموقع الإلكتروني، نوفّر أيضًا إرشادات حول السلامة والإنصاف والهندسة الفورية والاختبار الإعلاني لنماذج جيلية. للحصول على جولة تفصيلية حول نماذج اللغات، يمكنك الاطّلاع على أداة PAIR Explorable: ما الذي تعلّمته نماذج اللغات؟

مراجع إضافية

أسباب التركيز على الذكاء الاصطناعي (AI) في Google

عملية مراجعة الذكاء الاصطناعي من Google

عملية مراجعة مبادئ الذكاء الاصطناعي | الذكاء الاصطناعي من Google:

مجموعة أدوات الذكاء الاصطناعي المسؤولة | TensorFlow