檢索 12 月:多面向導覽
2024 年 12 月 17 日,星期二
我們剛發布關於多面向導覽最佳做法的全新文件,這份文件最初是以網誌文章形式發布。以下是新說明文件頁面中一些重要部分的摘要。
多面向導覽是協助使用者在網站上找到所需內容的絕佳方式,但如果導入不當,可能會導致 SEO 災難。原因在於這種網站導覽方式可以產生近乎無限的網址數量,造成以下問題:
-
過度檢索:搜尋引擎浪費時間檢索對搜尋使用者毫無價值的無數網址。
-
發現新內容的速度變慢:過度檢索會導致發現重要新內容的速度變慢。
事實上,網站擁有者目前最常回報的過度檢索問題,多半是多面向導覽造成的。在多數情況下,只要遵守一些最佳做法,就能避免這個情形。不過,讓我們先回顧一下。
網址問題
多面向導覽中的每個篩選器組合,通常會產生不重複的網址。例如:
https://example.com/items.shtm?products=fish&color=radioactive_green&size=tiny
變更任何參數 (product
、color
或 size
) 都會建立新的網址,導致網址數量可能激增。這就是問題所在:有近乎無限的新網址等待發現。該如何解決這個問題呢?
兩種解決方法
-
封鎖多面向導覽網址:
-
如果不需要將這些網址編入索引,請使用
robots.txt
禁止檢索。
-
您也可以使用網址片段 (
#
) 做為篩選器,因為搜尋引擎通常會忽略這些片段。
-
最佳化多面向導覽網址 (如果無論如何都需要檢索這些網址):
-
使用標準
&
分隔符設定網址參數。💩 不是理想的參數分隔符號字元。
- 在網址路徑中維持一致的篩選器順序。
- 針對沒有任何結果的篩選器組合,傳回
404
狀態碼。
-
除非沒有其他選擇 (例如您有單頁應用程式),否則請勿將空白結果重新導向至一般「找不到」頁面。
重要注意事項
-
您也可以使用
rel="canonical"
,將變化版本指向主頁面,以便整合信號。這種做法需要一段時間才會生效。
-
在篩選器連結中使用
rel="nofollow"
可禁止檢索作業,但必須一致套用。也就是說,指向這些頁面的每個連結 (內部和外部) 都必須具有 rel="nofollow"
屬性。
-
檢索多面向導覽網址一律會耗用伺服器資源,且可能會影響新內容的探索。
如果您對關於多面向導覽最佳做法的全新文件有任何建議或需要說明,請使用該文件的意見回饋工具。如果您對多面向導覽很有興趣,希望與其他人討論相關主題,歡迎加入搜尋中心社群;此外,您也可以在 LinkedIn 上找到我們。
發文者:Gary Illyes
想详细了解抓取?请查看整个“抓取 12 月”系列:
除非另有註明,否則本頁面中的內容是採用創用 CC 姓名標示 4.0 授權,程式碼範例則為阿帕契 2.0 授權。詳情請參閱《Google Developers 網站政策》。Java 是 Oracle 和/或其關聯企業的註冊商標。
[null,null,[],[[["Faceted navigation can cause overcrawling and slow down the discovery of new content due to the creation of a near-infinite number of URLs."],["If faceted navigation URLs don't need to be indexed, you can block them using `robots.txt` or URL fragments (`#`)."],["If faceted navigation URLs must be crawled, use standard `&` separators, maintain a consistent filter order, and return a `404` status for empty result combinations."],["Consolidate signals by using `rel=\"canonical\"` to point to a main page, or use `rel=\"nofollow\"` consistently to discourage crawling of filter links."],["Crawling faceted navigation URLs consumes server resources and impacts new content discovery."]]],["Faceted navigation can create excessive URLs, leading to overcrawling and slower discovery of important content. To mitigate this, block unnecessary URLs via `robots.txt` or URL fragments. If indexing is needed, use standard URL parameter separators, maintain consistent filter order, and return 404 errors for empty results. Employ `rel=\"canonical\"` to consolidate signals and `rel=\"nofollow\"` consistently to limit crawling. Remember that crawling these URLs consumes resources, regardless of best practices.\n"]]