Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Angenommen, Sie entwickeln eine App für Essensempfehlungen. Nutzer können darin ihre Lieblingsgerichte eingeben, und die App schlägt ähnliche Speisen vor, die sie mögen könnten. Sie möchten ein Modell für maschinelles Lernen (ML) entwickeln, das die Ähnlichkeit von Lebensmitteln vorhersagt, damit Ihre App qualitativ hochwertige Empfehlungen geben kann („Da Sie Pfannkuchen mögen, empfehlen wir Ihnen Crêpes“).
Sie stellen einen Datensatz mit 5.000 beliebten Gerichten zusammen, um damit Ihr Modell zu trainieren, darunter Borschtsch,
Hotdog,
Salat,
Pizza,
und Shawarma.
Abbildung 1. Beispiele für Nahrungsmittel, die im Datensatz enthalten sind.
Sie erstellen eine meal-Funktion, die eine one-hot-codierte Darstellung der einzelnen Nahrungsmittel im Datensatz enthält.
Codieren bezieht sich auf den Prozess für die Auswahl einer anfänglichen numerischen Darstellung der Daten, anhand der das Modell trainiert wird.
Abbildung 2. One-Hot-Codierungen von Borschtsch, Hotdog und Schawarma.
Jeder One-Hot-Codierungsvektor hat eine Länge von 5.000 (ein Eintrag für jeden Menüpunkt im Datensatz). Die Ellipse im Diagramm steht für die 4.995 nicht angezeigten Einträge.
Stolperfallen bei dünnbesetzten Datendarstellungen
Bei der Durchsicht dieser One-Hot-Codierungen fallen mehrere Probleme mit der Darstellung der Daten auf.
Anzahl der Gewichte. Große Eingangsvektoren bedeuten eine hohe Anzahl an Gewichten für ein neuronales Netzwerk.
Mit M Einträgen in Ihrer One-Hot-Codierung und N Knoten in der ersten Ebene des Netzwerks nach der Eingabe muss das Modell MxN Gewichte für diese Ebene trainieren.
Anzahl der Datenpunkte. Je mehr Gewichte Sie für Ihr Modell verwenden, desto mehr Daten brauchen Sie für ein effektives Training.
Rechenleistung. Je mehr Gewichte beinhaltet sind, desto mehr Rechenleistung ist erforderlich, um das Modell zu trainieren und zu verwenden. Die Kapazität Ihrer Hardware kann dabei leicht überschritten werden.
Arbeitsspeicher. Je mehr Gewichte Ihr Modell enthält, desto mehr Speicher benötigen die Beschleuniger, die das Modell trainieren und bereitstellen. Diesen Prozess effizient zu skalieren, ist sehr schwierig.
Schwierigkeiten bei der Unterstützung von integriertem maschinellen Lernen (On-Device Machine Learning, ODML).
Wenn Sie Ihr ML-Modell auf lokalen Geräten ausführen möchten (statt es bereitzustellen), müssen Sie Ihr Modell vorrangig verkleinern und die Anzahl der Gewichte verringern.
In diesem Modul lernen Sie, Einbettungen zu erstellen: dünnbesetzte Datendarstellungen mit weniger Dimensionen, die diese Probleme adressieren.
[null,null,["Zuletzt aktualisiert: 2025-05-15 (UTC)."],[[["\u003cp\u003eThis module explains how to create embeddings, which are lower-dimensional representations of sparse data that address the problems of large input vectors and lack of meaningful relations between vectors in one-hot encoding.\u003c/p\u003e\n"],["\u003cp\u003eOne-hot encoding creates large input vectors, leading to a huge number of weights in a neural network, requiring more data, computation, and memory.\u003c/p\u003e\n"],["\u003cp\u003eOne-hot encoding vectors lack meaningful relationships, failing to capture semantic similarities between items, like the example of hot dogs and shawarmas being more similar than hot dogs and salads.\u003c/p\u003e\n"],["\u003cp\u003eEmbeddings offer a solution by providing dense vector representations that capture semantic relationships and reduce the dimensionality of data, improving efficiency and performance in machine learning models.\u003c/p\u003e\n"],["\u003cp\u003eThis module assumes familiarity with introductory machine learning concepts like linear regression, categorical data, and neural networks.\u003c/p\u003e\n"]]],[],null,["# Embeddings\n\n| **Estimated module length:** 45 minutes\n| **Learning objectives**\n|\n| - Visualize vector representations of word embeddings, such as [word2vec](https://wikipedia.org/wiki/Word2vec).\n| - Distinguish encoding from embedding.\n| - Describe contextual embedding.\n| **Prerequisites:**\n|\n| This module assumes you are familiar with the concepts covered in the\n| following modules:\n|\n| - [Introduction to Machine Learning](/machine-learning/intro-to-ml)\n| - [Linear regression](/machine-learning/crash-course/linear-regression)\n| - [Working with categorical data](/machine-learning/crash-course/categorical-data)\n| - [Neural networks](/machine-learning/crash-course/neural-networks)\n\nImagine you're developing a food-recommendation application, where\nusers input their favorite meals, and the app suggests similar meals\nthat they might like. You want to develop a machine learning (ML) model\nthat can predict food similarity, so your app can make high quality\nrecommendations (\"Since you like pancakes, we recommend crepes\").\n\nTo train your model, you curate a dataset of 5,000 popular\nmeal items, including ,\n,\n,\n,\nand .\n**Figure 1.** Sampling of meal items included in the food dataset.\n\nYou create a `meal` feature that contains a\n[**one-hot encoded**](/machine-learning/glossary#one-hot-encoding)\nrepresentation of each of the meal items in the dataset.\n[**Encoding**](/machine-learning/glossary#encoder) refers to the process of\nchoosing an initial numerical representation of data to train the model on.\n**Figure 2.** One-hot encodings of borscht, hot dog, and shawarma. Each one-hot encoding vector has a length of 5,000 (one entry for each menu item in the dataset). The ellipsis in the diagram represents the 4,995 entries not shown.\n\nPitfalls of sparse data representations\n---------------------------------------\n\nReviewing these one-hot encodings, you notice several problems with this\nrepresentation of the data.\n\n- **Number of weights.** Large input vectors mean a huge number of [**weights**](/machine-learning/glossary#weight) for a [**neural network**](/machine-learning/glossary#neural-network). With M entries in your one-hot encoding, and N nodes in the first layer of the network after the input, the model has to train MxN weights for that layer.\n- **Number of datapoints.** The more weights in your model, the more data you need to train effectively.\n- **Amount of computation.** The more weights, the more computation required to train and use the model. It's easy to exceed the capabilities of your hardware.\n- **Amount of memory.** The more weights in your model, the more memory that is needed on the accelerators that train and serve it. Scaling this up efficiently is very difficult.\n- **Difficulty of supporting on-device machine learning (ODML).** If you're hoping to run your ML model on local devices (as opposed to serving them), you'll need to be focused on making your model smaller, and will want to decrease the number of weights.\n\nIn this module, you'll learn how to create **embeddings**, lower-dimensional\nrepresentations of sparse data, that address these issues.\n| **Key terms:**\n|\n| - [One-hot encoding](/machine-learning/glossary#one-hot-encoding)\n| - [Neural network](/machine-learning/glossary#neural-network)\n- [Weight](/machine-learning/glossary#weight) \n[Help Center](https://support.google.com/machinelearningeducation)"]]