ל-GAN יש כמה מצבי כשל נפוצים. כל הבעיות הנפוצות האלה הן תחומים של מחקר פעיל. אף אחת מהבעיות האלה לא נפתרה לגמרי, אבל נציין כמה דברים שאנשים ניסו.
שינויים הדרגתיים בצבע שמתרחקים
מחקרים הראו שאם המזהה טוב מדי, אימון הגנרטורים עלול להיכשל בגלל היעלמוּת של שיפועים. למעשה, מבחינה פונקציונלית, המזהה האופטימלי לא מספק מספיק מידע כדי שהגנרטור יוכל להתקדם.
ניסיונות לפתרון
- Wasserstein loss: Wasserstein loss נועד למנוע היעלמות של שיפועים גם כשמאומנים את המזהה להגיע לאופטימום.
- הפסד מינימוקס שעבר שינוי: במאמר המקורי בנושא GAN הוצעה שינוי בהפסד מינימוקס כדי לטפל בבעיה של שיפועים שנכחדים.
כיווץ המצב
בדרך כלל רוצים שה-GAN יפיק מגוון רחב של תוצאות פלט. לדוגמה, אתם רוצים ליצור פרצוף שונה לכל קלט אקראי שיוזן ליצירת הפנים.
עם זאת, אם הכלי יוצר פלט אמין במיוחד, יכול להיות שהוא ילמד ליצור רק את הפלט הזה. למעשה, הגנרטור תמיד מנסה למצוא את הפלט שנראה הכי סביר למבדיל.
אם הגנרטור מתחיל לייצר את אותו פלט (או קבוצה קטנה של פלטים) שוב ושוב, האסטרטגיה הטובה ביותר של המזהה היא ללמוד תמיד לדחות את הפלט הזה. אבל אם הדור הבא של המזהה נתקע במינימום מקומי ולא מוצא את האסטרטגיה הטובה ביותר, קל מדי ליצירת הדור הבא של הגנרטורים למצוא את הפלט הכי סביר למזהה הנוכחי.
בכל חזרה של הגנרטור מתבצעת אופטימיזציה מוגזמת לצורך יצירת מבדיל ספציפי, והמבדיל אף פעם לא מצליח ללמוד איך לצאת מהמלכודת. כתוצאה מכך, הגנרטורים עוברים סיבוב בין קבוצה קטנה של סוגי פלט. צורת הכשל הזו של GAN נקראת קריסת מצב.
ניסיונות לפתרון
הגישות הבאות מנסים לאלץ את המחולל להרחיב את ההיקף שלו על ידי מניעת האופטימיזציה שלו לצורך שימוש במזהה בודד וקבוע:
- Wasserstein loss: Wasserstein loss מפחית את קריסת המצבים (mode collapse) על ידי אימון המזהה עד לאופטימיזציה, בלי לדאוג לגבי התנדות של שיפועים (vanishing gradients). אם המזהה לא נתקע במינימום מקומי, הוא לומד לדחות את הפלט שהגנרטור מגיע אליו. לכן, הגנרטור צריך לנסות משהו חדש.
- GANs לא מקופלים: בGANs לא מקופלים נעשה שימוש בפונקציית אובדן של הגנרטור שמשלבת לא רק את הסיווגים הנוכחיים של המזהה, אלא גם את הפלט של גרסאות עתידיות של המזהה. כך המחולל לא יכול לבצע אופטימיזציה מוגזמת לפי מאפיין מבדיל אחד.
כשל באיחוד
לעיתים קרובות, רשתות GAN לא מצליחות להגיע להסכמה, כפי שמתואר במודול בנושא אימון.
ניסיונות לפתרון
חוקרים ניסו להשתמש בדרכים שונות של רגולריזציה כדי לשפר את ההתכנסות של GAN, כולל:
- הוספת רעש לקלט של המזהה: לדוגמה, Toward Principled Methods for Training Generative Adversarial Networks.
- הטלת קנסות על משקלים של מבדיל: לדוגמה, Stabilizing Training of Generative Adversarial Networks through Regularization.