メリット
ドメインの知識は不要
エンベディングは自動的に学習されるため、ドメインの知識は必要ありません。セレンディピティ
このモデルは、ユーザーが新しい興味 / 関心を発見するのに役立ちます。ML システムは単独では ユーザーが特定の商品に関心を持っていることはわかっていなくても、 類似のユーザーがその商品に興味を持っているため、おすすめします。出発点として最適
マトリックスをトレーニングするにはある程度、フィードバック マトリックスだけでよい モデルです。特に、システムにコンテキスト特徴は必要ありません。 実際には、これは複数の候補生成ツールの 1 つとして使用できます。
デメリット
最新アイテムを処理できない
ある特定の(ユーザーとアイテム)のペアに対するモデルの予測は、 対応するエンベディングの積です。未知のアイテムが見つかったら エンべディングを作成できず、エンべディングも このアイテムでモデルをクエリしますこの問題は コールド スタートの問題。ただし、次の手法で コールド スタート問題にある程度対処できます。
WALS の射影。トレーニングで見られない \(i_0\) 新しい項目があったら、 ユーザーとのインタラクションが数回の場合、システムは このアイテムの \(v_{i_0}\) エンべディングを簡単に計算できます。 再トレーニングする必要がありますシステムは単純に次の問題を解決する必要がある 式または重み付きバージョン:
\[\min_{v_{i_0} \in \mathbb R^d} \|A_{i_0} - U v_{i_0}\|\]
上記の式は、WALS の 1 回の反復に対応しています。 ユーザーのエンベディングは固定され、システムがエンベディングを解く アイテム \(i_0\)。新規ユーザーについても同じことができます。
新しいアイテムのエンベディングを生成するヒューリスティック。システムが に相互作用がない場合、そのエンベディングを近似できる 同じカテゴリのアイテムのエンベディングを といった具合です。
クエリ/アイテムに副次的特徴を含めるのが難しい
付帯特徴とは、クエリ ID またはアイテム ID 以外のすべての特徴です。映画用 国や年齢といったおすすめ情報も表示されます。以下を含む モデルの品質が向上しますただし、 WALS に副次的特徴量を含めるのは難しい場合があります。 WALS の一般化によってこれが可能になります。
WALS を一般化するには、次を定義して特徴量で入力行列を拡張します。 ブロック マトリックス \(\bar A\)。ここで:
- ブロック (0, 0) は元のフィードバック マトリックス \(A\)です。
- ブロック(0, 1)は、ユーザー特徴のマルチホット エンコーディングです。
- Block (1, 0) は、アイテムの特徴のマルチホット エンコーディングです。