נניח שאתם מפתחים אפליקציה להמלצות על אוכל: המשתמשים מוסיפים את המנות שהם הכי אוהבים והאפליקציה מציעה מנות דומות שאולי ימצאו חן בעיניהם. כדאי לפתח מודל למידת מכונה (ML) שיכול לחזות סוגי מאכלים דומים, וככה ההמלצות של האפליקציה יהיו באיכות גבוהה ("את אוהבת פנקייקים אז אנחנו ממליצים על קרפים").
כדי לאמן את המודל, יוצרים קבוצת נתונים עם 5,000 מאכלים פופולריים, כולל בורשט, נקניקייה בלחמנייה, סלט, פיצה ושווארמה.
איור 1. דוגמאות למאכלים שנכללים בקבוצת הנתונים של האוכל.
יוצרים מאפיין meal עם ייצוג בקידוד "חם-יחיד" (one-hot) לכל אחד מהמאכלים בקבוצת הנתונים.
קידוד הוא התהליך שבו נבחר ייצוג מספרי התחלתי של נתונים שבאמצעותם נאמן את המודל.
איור 2. קידודי "חם-יחיד" של בורשט, נקניקייה בלחמנייה ושווארמה.
כל וקטור בקידוד "חם-יחיד" הוא באורך 5,000 (רשומה אחת לכל אפשרות בתפריט בקבוצת הנתונים). שלוש הנקודות בדיאגרמה מייצגות את 4,995 הרשומות שלא מוצגות.
החסרונות של ייצוגי נתונים מפוזרים
בקידודים האלה מסוג "חם-יחיד" יש כמה בעיות מבחינת ייצוג הנתונים.
מספר המשקלים. כשיש קלט עם וקטורים גדולים, זה אומר שיש הרבה מאוד משקלים ברשת הנוירונים.
אם יש M רשומות בקידוד "חם-יחיד" ו-N צמתים בשכבה הראשונה של הרשת אחרי הקלט, המודל צריך לאמן MxN משקלים לאותה שכבה.
מספר נקודות הנתונים. ככל שיש יותר משקלים במודל, צריך לאמן יותר נתונים ביעילות.
מידת החישוביות. ככל שיש יותר משקלים, נדרשת מידת חישוביות גדולה יותר כדי לאמן ולהשתמש במודל. במצב כזה קל לחרוג מיכולות העיבוד של החומרה הקיימת.
נפח הזיכרון. ככל שיש יותר משקלים במודל, נדרש יותר נפח זיכרון במאיצים שמאמנים אותו וממלאים את הבקשות שלו. קשה מאוד לבצע התאמה לעומס הזה.
הקושי לתמוך בלמידת מכונה במכשיר (ODML).
אם אתם רוצים להפעיל את מודל ה-ML במכשירים באופן מקומי (בניגוד למצב שבו רק ממלאים בקשות בשבילם), חשוב לצמצם את המודל ואת מספר המשקלים.
כדי לדעת להתמודד עם הסוגיות האלה, במודול הזה נראה איך ליצור הטמעות, ייצוגים של נתונים מפוזרים בפחות ממדים.
[null,null,["עדכון אחרון: 2025-05-15 (שעון UTC)."],[[["This module explains how to create embeddings, which are lower-dimensional representations of sparse data that address the problems of large input vectors and lack of meaningful relations between vectors in one-hot encoding."],["One-hot encoding creates large input vectors, leading to a huge number of weights in a neural network, requiring more data, computation, and memory."],["One-hot encoding vectors lack meaningful relationships, failing to capture semantic similarities between items, like the example of hot dogs and shawarmas being more similar than hot dogs and salads."],["Embeddings offer a solution by providing dense vector representations that capture semantic relationships and reduce the dimensionality of data, improving efficiency and performance in machine learning models."],["This module assumes familiarity with introductory machine learning concepts like linear regression, categorical data, and neural networks."]]],[]]