این سند نحوه طراحی Gemini Code Assist را با توجه به قابلیتها، محدودیتها و خطرات مرتبط با هوش مصنوعی مولد توضیح میدهد.
قابلیت ها و خطرات مدل های زبان بزرگ
مدلهای زبان بزرگ (LLM) میتوانند بسیاری از وظایف مفید مانند موارد زیر را انجام دهند:
- ترجمه زبان
- خلاصه کردن متن
- کد و نوشتن خلاقانه تولید کنید.
- چت ربات های قدرتمند و دستیاران مجازی.
- مکمل موتورهای جستجو و سیستم های توصیه.
در عین حال، قابلیتهای فنی در حال تکامل LLMها، پتانسیل استفاده نادرست، سوء استفاده و پیامدهای ناخواسته یا پیشبینی نشده را ایجاد میکند.
LLM ها می توانند خروجی هایی را تولید کنند که انتظارش را ندارید، از جمله متنی توهین آمیز، غیر حساس، یا از نظر واقعی نادرست. از آنجایی که LLM ها بسیار متنوع هستند، پیش بینی اینکه دقیقاً چه نوع خروجی های ناخواسته یا پیش بینی نشده ای ممکن است تولید کنند، می تواند دشوار باشد.
با توجه به این خطرات و پیچیدگی ها، Gemini Code Assist با در نظر گرفتن اصول هوش مصنوعی گوگل طراحی شده است. با این حال، درک برخی از محدودیتهای Gemini Code Assist برای کار ایمن و مسئولانه برای کاربران مهم است.
محدودیتهای Gemini Code Assist
برخی از محدودیتهایی که ممکن است در استفاده از Gemini Code Assist با آنها مواجه شوید، شامل موارد زیر است (اما محدود به آنها نیست):
موارد لبه. موارد لبه به موقعیتهای غیرعادی، نادر یا استثنایی اشاره دارد که به خوبی در دادههای آموزشی نشان داده نمیشوند. این موارد میتواند منجر به محدودیتهایی در خروجی مدلهای Gemini Code Assist شود، مانند اعتماد بیش از حد مدل، تفسیر نادرست زمینه، یا خروجیهای نامناسب.
توهمات، زمینه سازی و واقعیت را مدل کنید. مدلهای Gemini Code Assist ممکن است فاقد پایه و واقعیت در دانش دنیای واقعی، ویژگیهای فیزیکی یا درک دقیق باشند. این محدودیت میتواند منجر به توهمهای مدل شود، جایی که Gemini Code Assist ممکن است خروجیهایی تولید کند که صدایی معقول دارند اما از نظر واقعی نادرست، نامربوط، نامناسب یا بیمعنی هستند. توهمات همچنین می تواند شامل ساخت پیوندهایی به صفحات وب باشد که وجود ندارند و هرگز وجود نداشته اند. برای اطلاعات بیشتر، به نوشتن دستورات بهتر برای Gemini برای Google Cloud مراجعه کنید.
کیفیت داده ها و تنظیم. کیفیت، دقت و سوگیری دادههای سریعی که در محصولات Gemini Code Assist وارد میشود، میتواند تأثیر قابلتوجهی بر عملکرد آن داشته باشد. اگر کاربران درخواستهای نادرست یا نادرست وارد کنند، Gemini Code Assist ممکن است پاسخهای نابهینه یا نادرست را ارائه دهد.
تقویت بایاس مدلهای زبانی میتوانند ناخواسته سوگیریهای موجود را در دادههای آموزشی خود تقویت کنند و به خروجیهایی منجر شوند که ممکن است تعصبات اجتماعی و رفتار نابرابر با گروههای خاص را بیشتر تقویت کند.
کیفیت زبان در حالی که Gemini Code Assist دارای قابلیتهای چندزبانه چشمگیری در معیارهایی است که ما بر اساس آنها ارزیابی کردیم، اکثر معیارهای ما (شامل همه ارزیابیهای منصفانه) به انگلیسی آمریکایی هستند.
مدلهای زبان ممکن است کیفیت خدمات ناسازگاری را به کاربران مختلف ارائه دهند. برای مثال، تولید متن ممکن است برای برخی از لهجهها یا زبانهای مختلف مؤثر نباشد زیرا در دادههای آموزشی نشان داده نمیشوند. ممکن است عملکرد برای زبان های غیر انگلیسی یا انواع زبان انگلیسی با بازنمایی کمتر بدتر باشد.
معیارهای انصاف و زیر گروه ها. تحلیلهای منصفانه Google Research از مدلهای Gemini گزارش جامعی از خطرات احتمالی مختلف ارائه نمیکند. به عنوان مثال، ما بر روی سوگیری ها در امتداد محورهای جنسیتی، نژادی، قومیتی و مذهبی تمرکز می کنیم، اما تجزیه و تحلیل را تنها بر روی داده های زبان انگلیسی آمریکایی و خروجی های مدل انجام می دهیم.
تخصص دامنه محدود مدلهای Gemini بر روی فناوری Google Cloud آموزش دیدهاند، اما ممکن است فاقد عمق دانش لازم برای ارائه پاسخهای دقیق و دقیق در مورد موضوعات بسیار تخصصی یا فنی باشد که منجر به اطلاعات سطحی یا نادرست شود.
فیلتر ایمنی و سمیت Gemini
درخواستها و پاسخهای Gemini Code Assist با فهرست جامعی از ویژگیهای ایمنی که برای هر مورد استفاده قابل اجرا است بررسی میشوند. هدف این ویژگیهای ایمنی فیلتر کردن محتوایی است که خطمشی استفاده قابل قبول ما را نقض میکند. اگر خروجی مضر در نظر گرفته شود، پاسخ مسدود خواهد شد.