Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Crawling von Facettensuche-URLs verwalten
Die Facettensuche ist eine gängige Funktion von Websites, mit der Besucher ändern können, wie Elemente (z. B. Produkte, Artikel oder Veranstaltungen) auf einer Seite angezeigt werden. Es ist eine beliebte und nützliche Funktion. Die gängigste Implementierung, die auf URL-Parametern basiert, kann jedoch unendliche URL-Bereiche generieren, was der Website auf verschiedene Weise schadet:
Übermäßiges Crawling: Da die für die Facettensuche erstellten URLs neuartig erscheinen und Crawler nicht ohne vorheriges Crawling feststellen können, ob die URLs nützlich sind, greifen die Crawler in der Regel auf eine sehr große Anzahl von Facettensuche-URLs zu, bevor die Crawler-Prozesse feststellen, dass die URLs im Grunde nutzlos sind.
Langsamere Entdeckungs-Crawlings: Wie bereits erwähnt, haben die Crawler weniger Zeit für neue, nützliche URLs, wenn sie nutzlose URLs crawlen.
Eine typische Facettensuche-URL kann verschiedene Parameter im Abfragestring enthalten, die sich auf die Eigenschaften der Elemente beziehen, nach denen gefiltert wird. Beispiel:
Wenn du einen der URL-Parameter products, color und size änderst, werden auf der zugrunde liegenden Seite andere Elemente angezeigt. Das bedeutet oft eine sehr große Anzahl möglicher Filterkombinationen, was sich in einer sehr großen Anzahl möglicher URLs niederschlägt. Um Ressourcen zu sparen, empfehlen wir, diese URLs auf eine der folgenden Arten zu behandeln:
Wenn die Facettensuche-URLs nicht indexierbar sein sollen, verhindere das Crawling dieser URLs.
Wenn die Facettensuche-URLs möglicherweise indexiert werden sollen, müssen sie unseren Best Practices im folgenden Abschnitt entsprechen. Das Crawlen von facettierten URLs kostet Websites aufgrund der schieren Anzahl von URLs und Vorgängen, die zum Rendern dieser Seiten erforderlich sind, in der Regel eine große Menge an Rechenressourcen.
Crawling von Facettensuche-URLs verhindern
Wenn du Serverressourcen sparen willst und nicht möchtest, dass deine Facettensuche-URLs in der Google Suche erscheinen, kannst du das Crawling dieser URLs auf eine der folgenden Arten verhindern.
Verwende robots.txt, um das Crawling von Facettensuche-URLs zu verhindern. Oft gibt es keinen triftigen Grund, das Crawling von gefilterten Elementen zuzulassen, da dies serverseitige Ressourcen in Anspruch nimmt, ohne dass es einen nennenswerten Vorteil bringt. Lasse stattdessen nur das Crawling der Seiten der einzelnen Element sowie einer speziellen Listenseite zu, auf der alle Produkte ohne angewendete Filter angezeigt werden.
Du kannst auch das Element rel="canonical"link und das Ankerattribut rel="nofollow" verwenden, um anzugeben, welche Facettensuche-URLs gecrawlt werden sollen und welche nicht. Diese Methoden sind jedoch im Allgemeinen langfristig weniger effektiv als die zuvor genannten Methoden.
Wenn du mit rel="canonical" angibst, welche URL die kanonische Version einer Facettensuche-URL ist, kann sich das Crawling-Volume von nicht kanonischen Versionen dieser URLs im Laufe der Zeit verringern. Wenn du beispielsweise 3 gefilterte Seitentypen hast, solltest du rel="canonical" auf die ungefilterte Version verweisen lassen:https://example.com/items.shtm?products=fish&color=radioactive_green&size=tiny gibt <link rel="canonical" href="https://example.com/items.shtm?products=fish" > an.
Das Verwenden von rel="nofollow"-Attributen für Anker, die auf gefilterte Ergebnisseiten verweisen, kann von Vorteil sein. Beachte jedoch, dass jeder Anker, der auf eine bestimmte URL verweist, das rel="nofollow"-Attribut haben muss, damit er effektiv ist.
Dafür sorgen, dass die Facettensuche-URLs für das Web optimiert sind
Wenn deine Facettensuche-URLs möglicherweise gecrawlt und indexiert werden sollen, beachte die folgenden Best Practices, um die negativen Auswirkungen des Crawlings der großen Anzahl potenzieller URLs auf deiner Website zu minimieren:
Verwende das branchenübliche URL-Parametertrennzeichen „&“. Zeichen wie Komma (,), Semikolon (;) und Klammern ([ und ]) sind für Crawler nur schwer als Parametertrennzeichen zu erkennen, da sie in den meisten Fällen keine Trennzeichen sind.
Wenn du Filter im URL-Pfad codierst, z. B. /products/fish/green/tiny, achte darauf, dass die logische Reihenfolge der Filter immer gleich bleibt und dass keine doppelten Filter vorhanden sind.
Gib einen HTTP-Statuscode 404 zurück, wenn eine Filterkombination keine Ergebnisse liefert.
Wenn das Inventar der Website keine grünen Fische enthält, sollten Nutzer und Crawler eine Fehlermeldung vom Typ „nicht gefunden“ mit dem entsprechenden HTTP-Statuscode (404) erhalten. Das sollte auch der Fall sein, wenn die URL doppelte Filter oder anderweitig unsinnige Filterkombinationen und nicht vorhandene Paginierungs-URLs enthält. Wenn eine Filterkombination keine Ergebnisse liefert, solltest du nicht auf eine allgemeine Fehlerseite vom Typ „nicht gefunden“ weiterleiten. Gib stattdessen einen Fehler vom Typ „nicht gefunden“ mit dem HTTP-Statuscode 404 unter der URL zurück, unter der er aufgetreten ist.
[null,null,["Zuletzt aktualisiert: 2025-08-04 (UTC)."],[],["Faceted navigation URLs, often using parameters, can lead to overcrawling and slower discovery of new content. To manage this, prevent crawling of these URLs using `robots.txt` to disallow specific parameters or employ URL fragments instead of parameters. Alternatively, use `rel=\"canonical\"` or `rel=\"nofollow\"` to reduce crawling of these pages. If faceted URLs are needed, utilize `&` for parameters, maintain consistent filter order, and return `404` for no-result combinations.\n"],null,["# Managing crawling of faceted navigation URLs | Google Search Central\n\nManaging crawling of faceted navigation URLs\n============================================\n\n\nFaceted navigation is a common feature of websites that allows its visitors to change how items\n(for example, products, articles, or events) are displayed on a page. It's a popular and useful\nfeature, however its most common implementation, which is based on URL parameters, can generate\ninfinite URL spaces which harms the website in a couple ways:\n\n- **Overcrawling**: Because the URLs created for the faceted navigation seem to be novel and crawlers can't determine whether the URLs are going to be useful without crawling first, the crawlers will typically access a very large number of faceted navigation URLs before the crawlers' processes determine the URLs are in fact useless.\n- **Slower discovery crawls**: Stemming from the previous point, if crawling is spent on useless URLs, the crawlers have less time to spend on new, useful URLs.\n\n\nA typical faceted navigation URL may contain various parameters in the query string related to the\nproperties of items they filter for. For example: \n\n```\nhttps://example.com/items.shtm?products=fish&color=radioactive_green&size=tiny\n```\n\n\nChanging any of the URL parameters `products`, `color`, and\n`size` would show a different set of items on the underlying page. This often means a\nvery large number of possible combinations of filters, which translates to a very large number of\npossible URLs. To save your resources, we recommend dealing with these URLs one of the following\nways:\n\n- If you don't need the faceted navigation URLs potentially indexed, prevent crawling of these URLs.\n- If you need the faceted navigation URLs potentially indexed, ensure that the URLs follow our best practices outlined in the following section. Keep in mind that crawling faceted URLs tends to cost sites large amounts of computing resources due to the sheer amount of URLs and operations needed to render those pages.\n\nPrevent crawling of faceted navigation URLs\n-------------------------------------------\n\n\nIf you want to save server resources and you don't need your faceted navigation URLs to show up in\nGoogle Search, you can prevent crawling of these URLs with one of the following ways.\n\n- **Use [robots.txt](/search/docs/crawling-indexing/robots/intro) to disallow crawling of faceted navigation URLs.** Oftentimes there's no good reason to allow crawling of filtered items, as it consumes server resources for no or negligible benefit; instead, allow crawling of just the individual items' pages along with a dedicated listing page that shows all products without filters applied. \n\n ```\n user-agent: Googlebot\n disallow: /*?*products=\n disallow: /*?*color=\n disallow: /*?*size=\n allow: /*?products=all$\n ```\n- **Use URL fragments to specify filters.** [Google Search generally doesn't support URL fragments in crawling and indexing](/search/docs/crawling-indexing/url-structure#fragments). If your filtering mechanism is based on URL fragments, it will have no impact on crawling (positive or negative). For example, instead of URL parameters, use URL fragments: \n\n ```\n https://example.com/items.shtm#products=fish&color=radioactive_green&size=tiny\n ```\n\n\nOther ways to signal a preference of which faceted navigation URLs (not) to crawl is using\n`rel=\"canonical\"` `link` element and the `rel=\"nofollow\"` anchor\nattribute. However, these methods are generally less effective in the long term than the\npreviously mentioned methods.\n\n- **Using [`rel=\"canonical\"`](/search/docs/crawling-indexing/consolidate-duplicate-urls#rel-canonical-link-method)\n to specify which URL is the canonical version of a faceted navigation URL** may, over time, decrease the crawl volume of non-canonical versions of those URLs. For example, if you have 3 filtered page types, consider pointing the `rel=\"canonical\"` to the unfiltered version: `https://example.com/items.shtm?products=fish&color=radioactive_green&size=tiny` specifies `\u003clink rel=\"canonical\" href=\"https://example.com/items.shtm?products=fish\" \u003e`.\n- **Using\n [`rel=\"nofollow\"`](/search/docs/crawling-indexing/qualify-outbound-links#nofollow)\n attributes on anchors pointing to filtered results pages** may be beneficial, however keep in mind that every anchor pointing to a specific URL must have the `rel=\"nofollow\"` attribute in order for it to be effective.\n\nEnsure the faceted navigation URLs are optimal for the web\n----------------------------------------------------------\n\n\nIf you need your faceted navigation URLs to be potentially crawled and indexed, ensure you're\nfollowing these best practices to minimize the negative effects of crawling the large number of\npotential URLs on your site:\n| Keep in mind that having these URLs crawled means an increased resource usage on your server and, potentially, slower discovery of new URLs on your site.\n\n1. **Use the industry standard URL parameter separator '`&`'.** Characters like comma (`,`), semicolon (`;`), and brackets (`[` and `]`) are hard for crawlers to detect as parameter separators (because most often they're not separators).\n2. If you're encoding filters in the URL path, such as `/products/`**fish** `/`**green** `/`**tiny**, ensure that the logical order of the filters always stays the same and that no duplicate filters can exist.\n3. **Return an HTTP `404` status code when a filter combination doesn't return\n results.** If there are no green fish in the site's inventory, users as well as crawlers should receive a \"not found\" error with the proper HTTP status code (`404`). This should also be the case if the URL contains duplicate filters or otherwise nonsensical filter combinations, and nonexistent pagination URLs. Similarly, if a filter combination has no results, don't redirect to a common \"not found\" error page. Instead, serve a \"not found\" error with the `404` HTTP status code under the URL where it was encountered. If [you have a single-page app](/search/docs/crawling-indexing/javascript/javascript-seo-basics#avoid-soft-404s) this might not be possible. Follow the best practices for single page apps."]]