הדרכות GAN

מכיוון ש-GAN מכיל שתי רשתות שמודרכות בנפרד, אלגוריתם האימון שלו צריך לטפל בשני סיבוכים:

  • מודלים של GAN צריכים לבצע אימון בשני סוגים שונים (גנרטור ומבדיל).
  • קשה לזהות את ההתכנסות של GAN.

אימון לסירוגין

לגנרטור ולמייחד יש תהליכי אימון שונים. אז איך מארגנים את האימון של ה-GAN כמכלול?

אימון ה-GAN מתבצע במחזורים לסירוגין:

  1. המזהה מתאמן במשך תקופת אימון אחת או יותר.
  2. הגנרטור מתאמן במשך תקופת אימון אחת או יותר.
  3. חוזרים על שלבים 1 ו-2 כדי להמשיך לאמן את הרשתות של הגנרטורים והמייחד.

אנחנו שומרים על הגנרטור קבוע במהלך שלב האימון של המזהה. במהלך האימון של המזהה, הוא מנסה להבין איך להבדיל בין נתונים אמיתיים לנתונים מזויפים, ולכן הוא צריך ללמוד לזהות את הפגמים של הגנרטור. זו בעיה שונה לגבי גנרטור שהוכשרה לעומק, לעומת גנרטור לא מאומן שמפיק פלט אקראי.

באופן דומה, אנחנו שומרים על המזהה קבוע במהלך שלב האימון של הגנרטור. אחרת, המחולל ינסה לפגוע ביעד נע, ויכול להיות שהוא אף פעם לא יתכנס.

התהליך הזה מאפשר ל-GAN לטפל בבעיות גנרטיביות שלא ניתן לטפל בהן בדרך אחרת. כדי להתמודד עם הבעיה הגנרטיבית הקשה, אנחנו מתחילים בבעיית סיווג פשוטה הרבה יותר. לעומת זאת, אם אי אפשר לאמן סיווג כדי להבדיל בין נתונים אמיתיים לנתונים שנוצרו, גם אם מדובר בפלט הראשוני של הגנרטור האקראי, אי אפשר להתחיל את אימון ה-GAN.

התכנסות

ככל שהגנרטור משתפר במהלך האימון, הביצועים של המבדיל משתבשים כי המבדיל לא יכול להבחין בקלות בין תמונות אמיתיות לתמונות מזויפות. אם הגנרטור מצליח בצורה מושלמת, הדיסקרימינטור יהיה מדויק ב-50%. למעשה, המבדיל מטיל מטבע כדי לבצע את החיזוי שלו.

התהליך הזה יוצר בעיה בהתקרבות של ה-GAN כמכלול: משוב המזהה הופך לפחות משמעותי עם הזמן. אם ה-GAN ממשיך להתאמן אחרי שהמייחד נותן משוב אקראי לחלוטין, המחולל מתחיל להתאמן על משוב לא רלוונטי, והאיכות שלו עשויה לרדת.

ב-GAN, עיוורון הוא לרוב מצב זמני ולא יציב.