إطار عمل الذكاء الاصطناعي (AIIF): إطار عمل مفاهيمي لأنظمة الذكاء الاصطناعي الآمنة

يتطوّر الذكاء الاصطناعي بسرعة، ومن المهم أن تتطوّر استراتيجيات إدارة المخاطر الفعّالة معه. إطار عمل الذكاء الاصطناعي (AIIF) هو إطار عمل مفاهيمي لأنظمة الذكاء الاصطناعي المصمّمة للمساعدة في تحقيق هذا التطور.

مع تزايد إمكانيات الذكاء الاصطناعي في المنتجات حول العالم، يصبح الالتزام بإطار عمل جريئ ومسؤوليًا أكثر أهمية من ذي قبل.

تم تصميم SAIF للمساعدة في الحد من المخاطر المتعلقة بأنظمة الذكاء الاصطناعي (AI)، مثل سرقة النموذج وتسمم البيانات لأغراض التدريب وإدخال مدخلات ضارة من خلال إدخال الإذن واستخراج المعلومات السرية في بيانات التدريب.

إطار عمل SAIF

تتضمن SAIF ستة عناصر أساسية:

1- توسيع نطاق أساسيات الأمان القوية على منظومة الذكاء الاصطناعي (AI)

تشمل هذه الجهود الاستفادة من تقنيات الحماية التلقائية للبنية الأساسية وخبرتها التي تم إنشاؤها على مدار العقدين الماضيين لحماية أنظمة الذكاء الاصطناعي وتطبيقاته ومستخدميه. في الوقت نفسه، يمكنك تطوير خبراتك التنظيمية لمواكبة التطوّرات في الذكاء الاصطناعي (AI) والبدء في توسيع نطاق عمليات الحماية من البنية الأساسية وتعديلها في سياق الذكاء الاصطناعي (AI) ونماذج التهديد المتطوّرة. على سبيل المثال، توفّرت تقنيات الحقن مثل إدخال SQL لبعض الوقت، ويمكن للمؤسسات تعديل إجراءات التخفيف، مثل تطهير الإدخال والحدّ، للمساعدة بشكل أفضل في الوقاية من هجمات نمط الحقن.

2. توسيع نطاق الرصد والاستجابة لتوفير الذكاء الاصطناعي في عالم التهديد لدى المؤسسة

يُعدّ التوقيت المناسب عاملاً مهمًا في رصد الحوادث الإلكترونية المتعلّقة بالذكاء الاصطناعي والاستجابة لها، كما يساعد في توسيع نطاق ذكاء التهديدات والإمكانيات الأخرى ليشمل المؤسسات. وبالنسبة إلى المؤسسات، تشمل هذه المصادر رصدات المدخلات ومخرجات أنظمة الذكاء الاصطناعي (AI) لاكتشاف القيم الشاذة واستخدام استخبارات التهديد لتوقّع الهجمات. وعادةً ما يتطلب هذا الجهد التعاون مع الثقة والأمان، واستخبارات التهديدات، وفِرق مكافحة إساءة الاستخدام.

3. برمجة دفاعاتك لمواكبة التهديدات الحالية والجديدة

يمكن أن تُحسّن أحدث ابتكارات الذكاء الاصطناعي (AI) نطاق جهود الاستجابة وسرعتها في مواجهة محاولات الاختراق الأمني. من المرجّح أن يستخدم الخصوم الذكاء الاصطناعي لتوسيع نطاق تأثيرهم، لذا من المهم استخدام الذكاء الاصطناعي وإمكاناته الحالية والناشئة للحفاظ على ذكاءه وفعاليته من حيث التكلفة في حمايتها.

4- تنسيق عناصر التحكّم على مستوى النظام الأساسي لضمان أمان متّسق في المؤسسة

يمكن أن يساعد الاتّساق في إطارات عمل التحكّم على الحد من مخاطر الذكاء الاصطناعي ووسائل الحماية الخاصة به، وذلك على مستوى مختلف الأنظمة الأساسية والأدوات لضمان توفّر أفضل إجراءات الحماية لجميع تطبيقات الذكاء الاصطناعي بطريقة قابلة للتطور والتكلفة. في Google، تشمل هذه الجهود توسيع نطاق الحماية الأمنية تلقائيًا لتشمل منصات الذكاء الاصطناعي مثل Vertex AI وWorkspace AI Workbench، فضلاً عن عناصر التحكّم في الحماية وإجراءات الحماية خلال مراحل تطوير البرامج. إنّ الإمكانيات التي تعالج حالات الاستخدام العامة، مثل Perspective API، يمكن أن تساعد المؤسسة بأكملها على الاستفادة من حالة عمليات الحماية الفنية.

5. تعديل عناصر التحكّم للتخفيف من آثار قطع الإنترنت وإنشاء ملاحظات وآراء بشكلٍ أسرع لتفعيل الذكاء الاصطناعي

ويمكن أن يضمن الاختبار المستمر لعمليات التنفيذ من خلال التعلّم المستمر إمكانية الرصد والحماية في بيئة التهديد المتغيرة. يتضمّن ذلك أساليب مثل تعزيز التعلّم استنادًا إلى الحوادث وملاحظات المستخدمين، ويشمل ذلك خطوات مثل تعديل مجموعات بيانات التدريب وإعداد النماذج للاستجابة بشكل استراتيجي للهجمات والسماح للبرامج المُستخدَمة في إنشاء نماذج لتوفير المزيد من الأمان في السياق (مثل رصد سلوك مخالف). يمكن للمؤسسات أيضًا إجراء فريق أحمر معتمَد لتحسين عملية ضمان السلامة للمنتجات والإمكانات المستندة إلى الذكاء الاصطناعي.

6- شرح سياق مخاطر الذكاء الاصطناعي في العمليات التجارية المحيطة

أخيرًا، إجراء تقييمات شاملة للمخاطر تتعلق بكيفية نشر المؤسسات للذكاء الاصطناعي يمكن أن يساعد في اتخاذ القرارات. ويتضمّن ذلك تقييمًا لمخاطر النشاط التجاري بشكل تام بين الطرفين، مثل فلترة البيانات والتحقّق من الصحة والمراقبة التشغيلية لأنواع معيّنة من التطبيقات. بالإضافة إلى ذلك، على المؤسسات إجراء عمليات تحقّق مبرمَجة للتحقّق من صحة أداء الذكاء الاصطناعي.

مراجع إضافية

دليل الممارس لتنفيذ آلية SAIF. يقدّم هذا الدليل اعتبارات عملية على مستوى عالٍ حول كيفية استفادة المؤسسات من إنشاء نهج SAIF في اعتمادها الحالي أو الجديد على الذكاء الاصطناعي.

إنّ السبب وراء أداء فِرق Red أداءً مركزيًا في مساعدة المؤسسات على تأمين أنظمة الذكاء الاصطناعي هو تقرير مفصّل يستكشف إمكانية مهمة واحدة يتم نشرها لدعم إطار عمل SAIF، وهو: فريق أحمر. ويشمل ذلك ثلاثة مجالات مهمة:

  1. ما هو الفريق الأحمر وأهم ذلك؟
  2. أنواع الهجمات التي تحاكيها الفِرق الحمراء
  3. الدروس المستفادة التي يمكننا مشاركتها مع الآخرين