يصف هذا المستند كيفية تصميم ميزة "مساعدة الترميز" في Gemini بالاستناد إلى القدرات والقيود والمخاطر المرتبطة بالذكاء الاصطناعي التوليدي.
إمكانات النماذج اللغوية الكبيرة ومخاطرها
يمكن للنماذج اللغوية الكبيرة (LLM) تنفيذ العديد من المهام المفيدة، مثل:
- ترجمة اللغة
- تلخيص النص
- إنشاء الرموز البرمجية والكتابة الإبداعية
- تحسين أداء برامج الدردشة والروبوتات الافتراضية
- تكمل محركات البحث وأنظمة الاقتراحات.
في الوقت نفسه، تؤدي الإمكانات الفنية المتطورة لتكنولوجيات الذكاء الاصطناعي اللغوي إلى احتمال استخدامها بشكل خاطئ أو إساءة استخدامها، كما قد تؤدي إلى عواقب غير مقصودة أو غير متوقّعة.
يمكن أن تُنشئ النماذج اللغوية الكبيرة نتائج غير متوقّعة، بما في ذلك نص مسيء أو غير حساس أو غير دقيق من الناحية الواقعية. ولأنّ النماذج اللغوية الكبيرة متعددة الاستخدامات بشكلٍ كبير، قد يكون من الصعب التنبؤ بدقة بأنواع المخرجات غير المقصودة أو غير المتوقّعة التي قد تنتجها.
ونظرًا لهذه المخاطر والتعقيدات، تم تصميم ميزة "مساعدة ترميز Gemini" استنادًا إلى مبادئ الذكاء الاصطناعي من Google. ومع ذلك، من المهم أن يفهم المستخدمون بعض القيود المفروضة على "مساعدة ترميز Gemini" لكي يعملوا بأمان وبمسؤولية.
قيود Gemini Code Assist
في ما يلي بعض القيود التي قد تواجهها عند استخدام Gemini Code Assist (ولكن لا تقتصر عليها):
الحالات الهامشية: تشير الحالات الحدّية إلى المواقف غير المعتادة أو النادرة أو الاستثنائية التي لا يتم تمثيلها بشكل جيد في بيانات التدريب. يمكن أن تؤدي هذه الحالات إلى قيود في نتائج نماذج Gemini Code Assist، مثل الثقة المفرطة في النموذج أو سوء تفسير السياق أو النتائج غير الملائمة.
نمذجة الهلوسة والواقعية والحقائق قد لا تستند نماذج Gemini Code Assist إلى الحقائق وعدم الدقة في المعرفة الواقعية أو الخصائص الفيزيائية أو الفهم الدقيق. يمكن أن يؤدي هذا الحدّ إلى حدوث هلوسات في النماذج، حيث قد يُنشئ Gemini Code Assist نتائج تبدو معقولة ولكنّها غير صحيحة من الناحية الواقعية أو غير ملائمة أو غير منطقية. يمكن أن تشمل الهلوسة أيضًا إنشاء روابط مزيّفة لصفحات ويب غير متوفّرة ولم يسبق أن كانت متوفّرة. لمزيد من المعلومات، يُرجى الاطّلاع على مقالة كتابة طلبات أفضل لخدمة Gemini في Google Cloud.
جودة البيانات وضبطها: يمكن أن تؤثر جودة بيانات الطلب ودقتها وانحيازها التي يتم إدخالها في منتجات Gemini Code Assist بشكل كبير في أدائها. إذا أدخل المستخدمون طلبات غير دقيقة أو خاطئة، قد يعرض Gemini Code Assist ردودًا غير مثالية أو خاطئة.
تضخيم الانحياز: يمكن أن تعزّز نماذج اللغة بدون قصد الأحكام المسبقة المتوفّرة في بيانات التدريب، ما يؤدي إلى نتائج قد تعزّز بدورها الأحكام المسبقة المجتمعية والمعاملة غير المتكافئة لفئات معيّنة.
جودة اللغة: على الرغم من أنّ ميزة "مساعدة رموز Gemini" توفّر إمكانات مُبهرة لعدّة لغات في المقاييس التي قيّمنا أداءها، فإنّ معظم المقاييس (بما في ذلك جميع تقييمات المساواة) هي باللغة الإنجليزية الأمريكية.
قد توفّر النماذج اللغوية جودة خدمة غير متّسقة للمستخدمين المختلفين. على سبيل المثال، قد لا يكون إنشاء النصوص فعّالاً بقدر كبير مع بعض اللهجات أو الصيغ اللغوية لأنّها غير ممثّلة بشكل كافٍ في بيانات التدريب. قد يكون الأداء أسوأ بالنسبة إلى اللغات غير الإنجليزية أو اللهجات القليلة التمثيل للغة الإنجليزية.
مقاييس العدالة والمجموعات الفرعية: لا توفّر تحليلات الإنصاف التي يجريها فريق "أبحاث Google" لنماذج Gemini وصفًا شاملاً للمخاطر المحتملة المختلفة. على سبيل المثال، نركّز على الانحيازات على مستوى محاور الجنس والعِرق والإثنية والدين، ولكنّنا لا نُجري التحليل إلا على بيانات اللغة الإنجليزية الأمريكية ومخرجات النماذج.
خبرة محدودة في المجال تم تدريب نماذج Gemini على تكنولوجيا Google Cloud، ولكن قد لا تتضمّن المعرفة المتعمّقة التي يلزمها تقديم ردود دقيقة ومفصّلة حول مواضيع فنية أو متخصّصة للغاية، ما يؤدي إلى تقديم معلومات سطحية أو غير صحيحة.
فلترة المحتوى السام والآمن في Gemini
يتم التحقّق من طلبات Gemini Code Assist وردودها مقارنةً بجدول غني بسمات السلامة حسب ما ينطبق على كل حالة استخدام. تهدف سمات الأمان هذه إلى فلترة المحتوى الذي ينتهك سياسة الاستخدام المقبول. إذا تم اعتبار النتيجة ضارة، سيتم حظر الاستجابة.