Gemini Code Assist و هوش مصنوعی مسئول

این سند نحوه طراحی Gemini Code Assist را با توجه به قابلیت‌ها، محدودیت‌ها و خطرات مرتبط با هوش مصنوعی مولد توضیح می‌دهد.

قابلیت ها و خطرات مدل های زبان بزرگ

مدل‌های زبان بزرگ (LLM) می‌توانند بسیاری از وظایف مفید مانند موارد زیر را انجام دهند:

  • ترجمه زبان
  • خلاصه کردن متن
  • کد و نوشتن خلاقانه تولید کنید.
  • چت ربات های قدرتمند و دستیاران مجازی.
  • مکمل موتورهای جستجو و سیستم های توصیه.

در عین حال، قابلیت‌های فنی در حال تکامل LLMها، پتانسیل استفاده نادرست، سوء استفاده و پیامدهای ناخواسته یا پیش‌بینی نشده را ایجاد می‌کند.

LLM ها می توانند خروجی هایی را تولید کنند که انتظارش را ندارید، از جمله متنی توهین آمیز، غیر حساس، یا از نظر واقعی نادرست. از آنجایی که LLM ها بسیار متنوع هستند، پیش بینی اینکه دقیقاً چه نوع خروجی های ناخواسته یا پیش بینی نشده ای ممکن است تولید کنند، می تواند دشوار باشد.

با توجه به این خطرات و پیچیدگی ها، Gemini Code Assist با در نظر گرفتن اصول هوش مصنوعی گوگل طراحی شده است. با این حال، درک برخی از محدودیت‌های Gemini Code Assist برای کار ایمن و مسئولانه برای کاربران مهم است.

محدودیت‌های Gemini Code Assist

برخی از محدودیت‌هایی که ممکن است در استفاده از Gemini Code Assist با آن‌ها مواجه شوید، شامل موارد زیر است (اما محدود به آنها نیست):

  • موارد لبه. موارد لبه به موقعیت‌های غیرعادی، نادر یا استثنایی اشاره دارد که به خوبی در داده‌های آموزشی نشان داده نمی‌شوند. این موارد می‌تواند منجر به محدودیت‌هایی در خروجی مدل‌های Gemini Code Assist شود، مانند اعتماد بیش از حد مدل، تفسیر نادرست زمینه، یا خروجی‌های نامناسب.

  • توهمات، زمینه سازی و واقعیت را مدل کنید. مدل‌های Gemini Code Assist ممکن است فاقد پایه و واقعیت در دانش دنیای واقعی، ویژگی‌های فیزیکی یا درک دقیق باشند. این محدودیت می‌تواند منجر به توهم‌های مدل شود، جایی که Gemini Code Assist ممکن است خروجی‌هایی تولید کند که صدایی معقول دارند اما از نظر واقعی نادرست، نامربوط، نامناسب یا بی‌معنی هستند. توهمات همچنین می تواند شامل ساخت پیوندهایی به صفحات وب باشد که وجود ندارند و هرگز وجود نداشته اند. برای اطلاعات بیشتر، به نوشتن دستورات بهتر برای Gemini برای Google Cloud مراجعه کنید.

  • کیفیت داده ها و تنظیم. کیفیت، دقت و سوگیری داده‌های سریعی که در محصولات Gemini Code Assist وارد می‌شود، می‌تواند تأثیر قابل‌توجهی بر عملکرد آن داشته باشد. اگر کاربران درخواست‌های نادرست یا نادرست وارد کنند، Gemini Code Assist ممکن است پاسخ‌های نابهینه یا نادرست را ارائه دهد.

  • تقویت بایاس مدل‌های زبانی می‌توانند ناخواسته سوگیری‌های موجود را در داده‌های آموزشی خود تقویت کنند و به خروجی‌هایی منجر شوند که ممکن است تعصبات اجتماعی و رفتار نابرابر با گروه‌های خاص را بیشتر تقویت کند.

  • کیفیت زبان در حالی که Gemini Code Assist دارای قابلیت‌های چندزبانه چشمگیری در معیارهایی است که ما بر اساس آنها ارزیابی کردیم، اکثر معیارهای ما (شامل همه ارزیابی‌های منصفانه) به انگلیسی آمریکایی هستند.

    مدل‌های زبان ممکن است کیفیت خدمات ناسازگاری را به کاربران مختلف ارائه دهند. برای مثال، تولید متن ممکن است برای برخی از لهجه‌ها یا زبان‌های مختلف مؤثر نباشد زیرا در داده‌های آموزشی نشان داده نمی‌شوند. ممکن است عملکرد برای زبان های غیر انگلیسی یا انواع زبان انگلیسی با بازنمایی کمتر بدتر باشد.

  • معیارهای انصاف و زیر گروه ها. تحلیل‌های منصفانه Google Research از مدل‌های Gemini گزارش جامعی از خطرات احتمالی مختلف ارائه نمی‌کند. به عنوان مثال، ما بر روی سوگیری ها در امتداد محورهای جنسیتی، نژادی، قومیتی و مذهبی تمرکز می کنیم، اما تجزیه و تحلیل را تنها بر روی داده های زبان انگلیسی آمریکایی و خروجی های مدل انجام می دهیم.

  • تخصص دامنه محدود مدل‌های Gemini بر روی فناوری Google Cloud آموزش دیده‌اند، اما ممکن است فاقد عمق دانش لازم برای ارائه پاسخ‌های دقیق و دقیق در مورد موضوعات بسیار تخصصی یا فنی باشد که منجر به اطلاعات سطحی یا نادرست شود.

فیلتر ایمنی و سمیت Gemini

درخواست‌ها و پاسخ‌های Gemini Code Assist با فهرست جامعی از ویژگی‌های ایمنی که برای هر مورد استفاده قابل اجرا است بررسی می‌شوند. هدف این ویژگی‌های ایمنی فیلتر کردن محتوایی است که خط‌مشی استفاده قابل قبول ما را نقض می‌کند. اگر خروجی مضر در نظر گرفته شود، پاسخ مسدود خواهد شد.

بعدش چی