בדף הזה מפורטים מונחים ממילון Google Cloud. כאן מפורטות כל ההגדרות במילון.
A
צ'יפ מאיץ
קטגוריה של רכיבי חומרה ייעודיים שנועדו לבצע חישובים מרכזיים שנדרשים לאלגוריתמים של למידת עומק.
צ'יפים למעבד מהיר (או מעבדים מהירים בקיצור) יכולים לשפר באופן משמעותי את המהירות והיעילות של משימות אימון והסקה בהשוואה למעבד כללי. הם אידיאליים לאימון רשתות נוירונליות ולמשימות דומות עם עומס חישוב גבוה.
דוגמאות למעבדים למהירות גבוהה:
- יחידות עיבוד נתונים של Google (TPUs) עם חומרה ייעודית ללמידת עומק.
- מעבדי ה-GPU של NVIDIA, שנועדו במקור לעיבוד גרפיקה, מאפשרים עיבוד מקביל שיכול להאיץ משמעותית את מהירות העיבוד.
B
הסקת מסקנות באצווה
תהליך הסקת תחזיות על סמך כמה דוגמאות ללא תוויות שמחולקות לקבוצות משנה קטנות יותר ('קבוצות').
ניתן להשתמש בהסקת נתונים בכמות גדולה (batch) כדי לנצל את תכונות ההרצה במקביל של שבבי המאיץ. כלומר, כמה מאיצים יכולים להסיק בו-זמנית תחזיות על קבוצות שונות של דוגמאות ללא תוויות, וכך להגדיל באופן משמעותי את מספר ההסקות לשנייה.
למידע נוסף, ראו מערכות למידת מכונה בסביבת ייצור: יצירת מסקנות סטטית לעומת דינמית במדריך למתחילים בנושא למידת מכונה.
C
Cloud TPU
מעבד חומרה ייעודי שמיועד להאיץ עומסי עבודה של למידת מכונה ב-Google Cloud.
D
מכשיר
מונח עם עומס יתר עם שתי ההגדרות האפשריות הבאות:
- קטגוריה של חומרה שיכולה להריץ סשן של TensorFlow, כולל מעבדי CPU, מעבדי GPU ו-TPU.
- כשמאמנים מודל למידת מכונה בשבבי מאיץ (GPU או TPU), החלק במערכת שמבצע בפועל את הפעולות על טנסורים ומיקומים מוטמעים. המכשיר פועל על שבבי מאיץ. לעומת זאת, המארח פועל בדרך כלל במעבד.
H
מארח
כשמאמנים מודל למידת מכונה בשבבי מואץ (GPU או TPU), החלק במערכת ששולט בשני הדברים הבאים:
- זרימת הקוד הכוללת.
- החילוץ והטרנספורמציה של צינור הקלט.
המארח פועל בדרך כלל במעבד (CPU), ולא בצ'יפ מואץ. המכשיר מבצע מניפולציות על טנסורים בצ'יפים המואצים.
M
רשת
בתכנות מקבילי של למידת מכונה, מונח שמשויך להקצאת הנתונים והמודל לצ'יפים של TPU, ולהגדרת האופן שבו הערכים האלה יתחלקו או ישוחזרו.
המונח Mesh הוא מונח בעל עומס יתר, שיכול להתייחס לאחד מהמונחים הבאים:
- פריסה פיזית של צ'יפים של TPU.
- מבנה לוגי מופשט למיפוי הנתונים והמודל לצ'יפים של ה-TPU.
בכל מקרה, רשת מצוינה כצורה.
S
פצל
חלוקה לוגית של קבוצת האימון או של המודל. בדרך כלל, תהליך כלשהו יוצר קטעי קוד על ידי חלוקה של הדוגמאות או של הפרמטרים לקטעים (בדרך כלל) בגודל שווה. לאחר מכן, כל שריד מוקצה למכונה אחרת.
חלוקת מודל לשברים נקראת מקבילות מודל, וחלוקת נתונים לשברים נקראת מקבילות נתונים.
T
Tensor Processing Unit (TPU)
מעגל משולב לאפליקציות ספציפיות (ASIC) שמבצע אופטימיזציה של הביצועים של עומסי עבודה של למידת מכונה. מערכי ה-ASIC האלה נפרסים כצ'יפים של TPU במכשיר TPU.
TPU
קיצור של Tensor Processing Unit.
צ'יפ TPU
מעבד לינארי לתכנות עם זיכרון ברוחב פס גבוה על שבב, שמותאם לאופטימיזציה של עומסי עבודה של למידת מכונה. כמה צ'יפים של TPU נפרסים במכשיר TPU.
מכשיר TPU
לוח מעגלים מודפסים (PCB) עם כמה שבבי TPU, ממשקי רשת עם רוחב פס גבוה וחומרה לקרור המערכת.
TPU master
תהליך התיאום המרכזי שפועל במכונה המארחת, ששולח ומקבל נתונים, תוצאות, תוכניות, ביצועים ומידע על בריאות המערכת למשימות ה-TPU. המאסטר של TPU מנהל גם את ההגדרה וההשבתה של מכשירי TPU.
צומת TPU
משאב TPU ב-Google Cloud עם סוג TPU ספציפי. צומת ה-TPU מתחבר לרשת ה-VPC שלכם מרשת VPC עמית. צמתים של TPU הם משאבים שמוגדרים ב-Cloud TPU API.
TPU Pod
תצורה ספציפית של מכשירי TPU במרכז הנתונים של Google. כל המכשירים ב-TPU Pod מחוברים זה לזה דרך רשת ייעודית במהירות גבוהה. אשכול TPU הוא ההגדרה הגדולה ביותר של מכשירי TPU שזמינה לגרסה ספציפית של TPU.
משאב TPU
ישות TPU ב-Google Cloud שאתם יוצרים, מנהלים או צורכים. לדוגמה, צומתי TPU וסוגי TPU הם משאבי TPU.
פרוסת TPU
פרוסת TPU היא חלק יחסי ממכשירי ה-TPU בTPU Pod. כל המכשירים בפלחי TPU מחוברים זה לזה דרך רשת ייעודית במהירות גבוהה.
סוג ה-TPU
הגדרה של מכשיר TPU אחד או יותר עם גרסת חומרה ספציפית של TPU. בוחרים את סוג ה-TPU כשיוצרים צומת TPU ב-Google Cloud. לדוגמה, סוג TPU מסוג v2-8
הוא מכשיר TPU v2 יחיד עם 8 ליבות. לסוג TPU v3-2048
יש 256 מכשירי TPU v3 ברשת, עם סך של 2048 ליבות. סוגי TPU הם משאבים שמוגדרים ב-Cloud TPU API.
TPU worker
תהליך שפועל במכונה מארחת ומריץ תוכניות של למידת מכונה במכשירי TPU.