Abruf

Angenommen, Sie haben ein Einbettungsmodell. Wie würden Sie, wenn möglich, entscheiden, welche Artikel Sie empfehlen?

Zum Zeitpunkt der Auslieferung führen Sie bei einer Abfrage einen der folgenden Schritte aus:

  • Bei einem Matrixfaktorisierungsmodell ist die Abfrage- (oder Nutzer-)Einbettung statisch bekannt und das System kann es einfach aus der Nutzereinbettungsmatrix nachschlagen.
  • Bei einem DNN-Modell berechnet das System die Abfrageeinbettung \(\psi(x)\)zum Zeitpunkt der Bereitstellung, indem das Netzwerk auf dem Featurevektor \(x\)ausgeführt wird.

Sobald die Abfrageeinbettung \(q\)vorliegt, suche nach Elementeinbettungen,\(V_j\) die sich in der Nähe des \(q\) Einbettungsbereichs befinden. Dies ist ein Nachbarproblem. Sie können beispielsweise die Top-K-Elemente entsprechend dem Ähnlichkeitswert \(s(q, V_j)\)zurückgeben.

Bild eines zweidimensionalen Spektrums mit verschiedenen Filmen und Nutzern, die von Filmen für Kinder bis hin zu Erwachsenen, von Arthouse bis hin zu Blockbustern, angeordnet sind. Ein Nutzer wird hervorgehoben sowie zwei Filme in der Nähe.

Sie können einen ähnlichen Ansatz in den Empfehlungen zu ähnlichen Elementen verwenden. Wenn sich der Nutzer beispielsweise ein YouTube-Video ansieht, kann das System zuerst nach der Einbettung dieses Elements suchen und dann nach Einbettungen anderer Elemente\(V_j\) suchen, die sich in der Nähe des Einbettungsbereichs befinden.

Umfangreicher Abruf

Zur Berechnung der nächstgelegenen Nachbarn im Einbettungsbereich kann das System jeden potenziellen Kandidaten vollständig bewerten. Für sehr große Korpora können erschwingliche Bewertungen teuer werden. Mit einer der folgenden Strategien lässt sich die Effizienz steigern:

  • Wenn die Abfrageeinbettung statisch bekannt ist, kann das System offline eine vollständige Bewertung durchführen. Dabei wird eine Liste der besten Kandidaten für jede Abfrage vorausberechnet und gespeichert. Dies ist eine gängige Praxis für Empfehlungen zu ähnlichen Elementen.
  • Verwende ungefähre ungefähre Nachbarn.