Gemini Code Assist ו-AI אחראי

במסמך הזה מתוארת תכנון התכונה Gemini Code Assist בהתאם ליכולות, למגבלות ולסיכונים שקשורים ל-AI גנרטיבי.

היכולות והסיכונים של מודלים גדולים של שפה

מודלים גדולים של שפה (LLMs) יכולים לבצע משימות מועילות רבות, כמו:

  • שפת התרגום.
  • לסכם טקסט.
  • יצירת קוד וכתיבה יצירתית.
  • הפעלת צ'אט בוטים ועוזרים וירטואליים.
  • להשלים מנועי חיפוש ומערכות המלצות.

עם זאת, היכולות הטכניות המתפתחות של מודלים מסוג LLM יוצרות פוטנציאל לשימוש שגוי, שימוש לרעה ותוצאות לא רצויות או בלתי צפויות.

מודלים של LLM יכולים ליצור תוצאות לא צפויות, כולל טקסט פוגעני, לא רגיש או לא מדויק מבחינה עובדתית. מכיוון שמודלים של LLM הם גמישים מאוד, קשה לחזות בדיוק אילו סוגי פלט לא מכוונים או בלתי צפויים הם עשויים לייצר.

לאור הסיכונים והמורכבויות האלה, התכונה Gemini Code Assist תוכננה בהתאם לעקרונות ה-AI של Google. עם זאת, חשוב שהמשתמשים יבינו חלק מהמגבלות של Gemini Code Assist כדי לעבוד בצורה בטוחה ואחראית.

המגבלות של Gemini Code Assist

חלק מהמגבלות שאתם עשויים להיתקל בהן ב-Gemini Code Assist כוללות (בין היתר):

  • מקרים קיצוניים מקרים קיצוניים הם מצבים חריגים, נדירים או יוצאי דופן שלא מיוצגים היטב בנתוני האימון. במקרים כאלה, יכול להיות שיחולו מגבלות על הפלט של המודלים של Gemini Code Assist, כמו ביטחון יתר במודל, פרשנות שגויה של ההקשר או פלט לא הולם.

  • מודלים של הזיות, התמקדות בנושא ועובדות יכול להיות שמודלים של Gemini Code Assist לא יהיו מבוססים על ידע מהעולם האמיתי, על מאפיינים פיזיים או על הבנה מדויקת. המגבלה הזו עלולה להוביל להזיות של מודל, שבהן Gemini Code Assist עשוי ליצור פלט שנשמע סביר אבל העובדות שבו שגויות, לא רלוונטי, לא הולם או לא הגיוני. תגובות לא תואמות נתונים יכולות לכלול גם קישורים מזויפים לדפי אינטרנט שלא קיימים ומעולם לא היו קיימים. למידע נוסף, תוכלו לקרוא את המאמר כתיבה של הנחיות טובות יותר ל-Gemini ל-Google Cloud.

  • איכות הנתונים והתאמה אישית האיכות, הדיוק וההטיה של נתוני ההנחיה שמוזנים למוצרי Gemini Code Assist יכולים להשפיע באופן משמעותי על הביצועים שלהם. אם המשתמשים מזינים הנחיות לא מדויקות או שגויות, יכול להיות ש-Gemini Code Assist יחזיר תשובות שגויות או לא אופטימליות.

  • הגברת הטיה מודלים של שפה עלולים להגביר בטעות את ההטיות הקיימות בנתוני האימון שלהם, וכתוצאה מכך להוביל לתוצאות שעשויות לחזק עוד יותר את הדעות הקדומות בחברה ואת הטיפול השונה בקבוצות מסוימות.

  • איכות השפה ל-Gemini Code Assist יש יכולות מרשימות בכמה שפות במסגרת מדדי ההשוואה שבדקנו, אבל רוב מדדי ההשוואה שלנו (כולל כל הבדיקות של הוגנות) הם באנגלית אמריקאית.

    מודלים בסיסיים של שפה עשויים לספק איכות שירות לא עקבית למשתמשים שונים. לדוגמה, יכול להיות יצירת הטקסט לא תהיה יעילה באותה מידה לגבי דיאלקטים מסוימים או וריאציות של שפה מסוימת, כי הם מיוצגים באופן לא פרופורציונלי בנתוני האימון. יכול להיות שהביצועים יהיו נמוכים יותר בשפות שאינן אנגלית או בזנים של אנגלית עם ייצוג נמוך יותר.

  • יעדים להשגת הוגנות וקבוצות משנה ניתוחי הצדק של Google Research במודלים של Gemini לא מספקים תיאור מקיף של הסיכונים הפוטנציאליים השונים. לדוגמה, אנחנו מתמקדים בהטיות לפי מגדר, גזע, אתניות ודת, אבל מבצעים את הניתוח רק על הנתונים בשפה האנגלית האמריקאית ועל תוצאות המודל.

  • מומחיות מוגבלת בתחום המודלים של Gemini הוכשרו בטכנולוגיית Google Cloud, אבל יכול להיות שהם לא מספיק מעמיקים כדי לספק תשובות מדויקות ומפורטות בנושאים טכניים או מיוחדים מאוד, וכתוצאה מכך יכול להיות שהמידע שהם מספקים יהיה שטחי או שגוי.

סינון של תוכן מסוכן ורעיל ב-Gemini

ההנחיות והתשובות של Gemini Code Assist נבדקות מול רשימה מקיפה של מאפייני בטיחות שרלוונטיים לכל תרחיש לדוגמה. מאפייני הבטיחות האלה נועדו לסנן תוכן שמפר את מדיניות השימוש המקובל שלנו. אם הפלט נחשב מזיק, התגובה תיחסם.

המאמרים הבאים