本頁面包含推薦系統的詞彙表。如要查看所有詞彙表術語,請按這裡。
C
候選生成
推薦系統選擇的初始推薦內容組合。舉例來說,假設有一家書店提供 100,000 本書籍,候選書籍產生階段會為特定使用者建立較小的適合書籍清單 (例如 500 本)。不過,即使是 500 本書籍,也太多了,無法向使用者推薦。推薦系統後續的階段 (例如評分和重新排序) 會將這 500 個推薦內容縮減為更少、更實用的推薦內容。
詳情請參閱推薦系統課程中的「候選項目產生方式總覽」。
協同過濾
根據許多其他使用者的興趣,預測某位使用者的興趣。協同過濾通常用於推薦系統。
詳情請參閱推薦系統課程中的「協同篩選」一節。
I
項目矩陣
在推薦系統中,由矩陣分解產生的嵌入向量矩陣,可保留有關每個項目的潛在信號。項目矩陣的每個資料列都會保留所有項目的單一潛在特徵值。舉例來說,假設您有一個電影推薦系統,項目矩陣中的每個欄都代表一部電影。潛在信號可能代表類型,也可能是難以解讀的信號,涉及類型、明星、電影年齡或其他因素的複雜互動。
項目矩陣的欄數與要因式化的目標矩陣相同。舉例來說,如果電影推薦系統評估 10,000 部電影名稱,項目矩陣就會有 10,000 個欄。
項目
在推薦系統中,系統推薦的實體。舉例來說,影片是影片商店推薦的商品,而書籍則是書店推薦的商品。
M
矩陣分解
在數學中,一種用來找出點積近似於目標矩陣的矩陣機制。
在推薦系統中,目標矩陣通常會儲存使用者對項目的評分。舉例來說,電影推薦系統的目標矩陣可能會如下所示,其中正整數為使用者評分,0 則表示使用者未對電影評分:
卡薩布蘭加 | The Philadelphia Story | 黑豹 | 神力女超人 | 黑色追緝令 | |
---|---|---|---|---|---|
使用者 1 | 5.0 | 3.0 | 0.0 | 2.0 | 0.0 |
使用者 2 | 4.0 | 0.0 | 0.0 | 1.0 | 5.0 |
使用者 3 | 3.0 | 1.0 | 4.0 | 5.0 | 0.0 |
電影推薦系統的目標是預測未評分的電影的使用者評分。例如,使用者 1 是否會喜歡「黑豹」?
建議系統的一種方法是使用矩陣分解來產生下列兩個矩陣:
舉例來說,如果對三位使用者和五項商品使用矩陣分解,就會產生下列使用者矩陣和商品矩陣:
User Matrix Item Matrix 1.1 2.3 0.9 0.2 1.4 2.0 1.2 0.6 2.0 1.7 1.2 1.2 -0.1 2.1 2.5 0.5
使用者矩陣和項目矩陣的內積會產生推薦矩陣,其中不僅包含原始使用者評分,還包含每位使用者未看過的電影預測結果。舉例來說,假設使用者 1 對「Casablanca」Casablanca的評分為 5.0。建議矩陣中對應至該儲存格的點積應約為 5.0,實際值為:
(1.1 * 0.9) + (2.3 * 1.7) = 4.9
更重要的是,使用者 1 會喜歡「Black Panther」嗎?取對應於第一列和第三欄的點積,可產生 4.3 的預測評分:
(1.1 * 1.4) + (2.3 * 1.2) = 4.3
矩陣分解通常會產生使用者矩陣和項目矩陣,兩者加起來比目標矩陣精簡許多。
R
推薦系統
系統會從大量語料庫中,為每位使用者選取一組相對較小的理想項目。舉例來說,影片推薦系統可能會從 100,000 部影片的語料庫中推薦兩部影片,為一位使用者選出 Casablanca 和 The Philadelphia Story,為另一位使用者選出 Wonder Woman 和 Black Panther。影片推薦系統可能會根據下列因素提供推薦內容:
- 類似使用者評分或觀看的電影。
- 類型、導演、演員、目標客層...
重新排名
推薦系統的最後階段,在此階段中,系統會根據其他 (通常為非機器學習) 演算法重新評分已評分的項目。重新排名會評估評分階段產生的項目清單,並採取以下動作:
- 刪除使用者已購買的項目。
- 提高較新商品的評分。
S
計分
推薦系統的一部分,為候選項目產生階段產生的每個項目提供值或排名。
U
使用者矩陣
在推薦系統中,由矩陣分解產生的嵌入向量,可保留有關使用者偏好的潛在信號。使用者矩陣的每個資料列都會保存單一使用者各種潛在信號的相對強度相關資訊。舉例來說,假設您有一個電影推薦系統,在這個系統中,使用者矩陣中的潛在信號可能代表每位使用者對特定類型的興趣,也可能是涉及多種因素的複雜互動,難以解讀。
使用者矩陣會為每個潛在特徵建立一欄,並為每位使用者建立一列。也就是說,使用者矩陣的列數與因式化的目標矩陣相同。舉例來說,如果電影推薦系統有 1,000,000 位使用者,使用者矩陣就會有 1,000,000 列。
W
加權交替最小平方 (WALS)
在推薦系統中,矩陣分解期間用於盡量減少目標函式的演算法,可將缺少的範例降權。WALS 會交替修正列分解和欄分解,盡量減少原始矩陣和重建矩陣之間的加權平方誤差。每項最佳化作業都可以透過最小二乘法凸最佳化解決。詳情請參閱推薦系統課程。