בדף הזה מופיעים מונחים במילון המונחים של Google Cloud. כאן אפשר לראות את כל המונחים במילון המונחים.
A
צ'יפ של פעולה שכיחה
קטגוריה של רכיבי חומרה מיוחדים שנועדו לבצע חישובים של מפתחות שנדרשים לאלגוריתמים של למידה עמוקה.
שבבי האצה (או בקיצור מאיצים) יכולים להגדיל באופן משמעותי את המהירות והיעילות של משימות אימון והסקת מסקנות בהשוואה למעבד למטרה כללית. הם אידיאליים לאימון רשתות עצביות ולמשימות דומות שדורשות הרבה משאבי מחשוב.
דוגמאות לשבבי האצה:
- יחידות Tensor Processing Units (TPU) של Google עם חומרה ייעודית ללמידה עמוקה.
- מעבדים גרפיים של NVIDIA, שתוכננו במקור לעיבוד גרפי, אבל הם מאפשרים עיבוד מקבילי, שיכול להגדיל משמעותית את מהירות העיבוד.
B
היקש באצווה
התהליך של הסקת תחזיות על כמה דוגמאות לא מסומנות שמחולקות לקבוצות משנה קטנות יותר ("אצוות").
הסקת מסקנות באצווה יכולה לנצל את תכונות ההקבלה של שבבי האצה. כלומר, כמה מאיצים יכולים להסיק תחזיות בו-זמנית על קבוצות שונות של דוגמאות לא מסומנות, וכך להגדיל באופן משמעותי את מספר ההסקות בשנייה.
מידע נוסף מופיע במאמר מערכות ML בייצור: הסקה סטטית לעומת הסקה דינמית בקורס המזורז ללמידת מכונה.
C
Cloud TPU
מאיץ חומרה ייעודי שנועד להאיץ עומסי עבודה של למידת מכונה ב-Google Cloud.
D
מכשיר
מונח עמוס עם שתי הגדרות אפשריות:
- קטגוריה של חומרה שיכולה להריץ סשן של TensorFlow, כולל מעבדי CPU, מעבדי GPU ומעבדי TPU.
- כשמבצעים אימון של מודל ML על שבבי האצה (GPU או TPU), החלק במערכת שמבצע בפועל מניפולציה של טנסורים ושל הטבעות. המכשיר פועל על שבבי האצה. לעומת זאת, המארח פועל בדרך כלל על מעבד.
H
מארח
כשמאמנים מודל ML על שבבי האצה (GPU או TPU), החלק במערכת ששולט בשני הדברים הבאים:
- הזרימה הכוללת של הקוד.
- החילוץ והשינוי של צינור הקלט.
המארח פועל בדרך כלל במעבד (CPU), ולא בצ'יפ האצה. המכשיר מבצע מניפולציות על טנסורים בצ'יפים של המאיץ.
M
רשת
במקביל למידת מכונה, מונח שקשור להקצאת הנתונים והמודל לשבבי TPU, ולהגדרת האופן שבו הערכים האלה יחולקו או ישוכפלו.
המונח Mesh (רשת) הוא מונח עמוס שיכול להתייחס לאחד מהדברים הבאים:
- פריסה פיזית של שבבי TPU.
- מבנה לוגי מופשט למיפוי הנתונים והמודל לשבבי TPU.
בכל מקרה, רשת מוגדרת כצורה.
S
פצל
חלוקה לוגית של נתוני האימון או של המודל. בדרך כלל, תהליך מסוים יוצר רסיסים על ידי חלוקה של הדוגמאות או הפרמטרים לחלקים בגודל שווה (בדרך כלל). כל רסיס מוקצה למכונה אחרת.
החלוקה של מודל נקראת מקבילות של מודל, והחלוקה של נתונים נקראת מקבילות של נתונים.
T
Tensor Processing Unit (TPU)
מעגל משולב לאפליקציות ספציפיות (ASIC) שמבצע אופטימיזציה של הביצועים של עומסי עבודה של למידת מכונה. ה-ASIC האלה נפרסים בתור כמה שבבי TPU במכשיר TPU.
TPU
קיצור של Tensor Processing Unit (יחידת עיבוד טנסור).
שבב TPU
מאיץ אלגברה לינארית שניתן לתכנות עם זיכרון בעל רוחב פס גבוה על השבב, שעבר אופטימיזציה לעומסי עבודה של למידת מכונה. כמה שבבי TPU נפרסים במכשיר TPU.
מכשיר TPU
לוח מעגלים מודפס (PCB) עם כמה שבבי TPU, ממשקי רשת עם רוחב פס גבוה וחומרה לקירור המערכת.
צומת TPU
משאב TPU ב-Google Cloud עם סוג TPU ספציפי. צומת ה-TPU מתחבר לרשת ה-VPC מרשת VPC שכנה. צומתי TPU הם משאב שמוגדר ב-Cloud TPU API.
TPU Pod
תצורה ספציפית של מכשירי TPU במרכז נתונים של Google. כל המכשירים ב-TPU Pod מחוברים זה לזה באמצעות רשת ייעודית מהירה. TPU Pod הוא ההגדרה הגדולה ביותר של מכשירי TPU שזמינה לגרסה ספציפית של TPU.
משאב TPU
ישות TPU ב-Google Cloud שאתם יוצרים, מנהלים או משתמשים בה. לדוגמה, צומתי TPU וסוגי TPU הם משאבי TPU.
TPU slice
TPU slice הוא חלק קטן ממכשירי TPU ב-TPU Pod. כל המכשירים ב-TPU slice מחוברים זה לזה באמצעות רשת ייעודית מהירה.
סוג ה-TPU
הגדרה של מכשירי TPU אחד או יותר עם גרסת חומרה ספציפית של TPU. כשיוצרים צומת TPU ב-Google Cloud, בוחרים את סוג ה-TPU. לדוגמה, סוג TPU v2-8
הוא מכשיר TPU v2 יחיד עם 8 ליבות. TPU מסוג v3-2048
כולל 256 מכשירי TPU v3 שמחוברים לרשת, ובסך הכול 2,048 ליבות. סוגי TPU הם משאב שמוגדר ב-Cloud TPU API.
TPU worker
תהליך שפועל במכונת מארח ומבצע תוכניות של למידת מכונה במכשירי TPU.