Aufnahme in den Suchindex mithilfe von noindex blockieren

noindex ist ein Regelsatz mit einem <meta>-Tag oder einem HTTP-Antwortheader. Er wird verwendet, um die Indexierung von Inhalten durch Suchmaschinen zu verhindern, die die noindex-Regel unterstützen, wie z. B. Google. Wenn der Googlebot diese Seite crawlt und das Tag oder den Header extrahiert, entfernt Google diese Seite vollständig aus den Google-Suchergebnissen, unabhängig davon, ob andere Websites auf diese Seite verweisen.

Die Verwendung von noindex ist nützlich, wenn du keinen Rootzugriff auf deinen Server hast, da du damit den Zugriff auf einzelne Seiten deiner Website steuern kannst.

noindex implementieren

Es gibt zwei Möglichkeiten, noindex zu implementieren: als <meta>‑Tag und als HTTP-Antwortheader. Beide haben den gleichen Effekt. Wähle daher die für deine Website praktischere und für deinen Inhaltstyp passendere Methode aus. Die Angabe der Regel noindex in der robots.txt-Datei wird von Google nicht unterstützt.

Du kannst die Regel noindex auch mit anderen Regeln kombinieren, die die Indexierung steuern. Du kannst beispielsweise einen nofollow-Hinweis mit einer noindex-Regel verknüpfen: <meta name="robots" content="noindex, nofollow" />.

<meta>-Tag

Wenn du verhindern möchtest, dass alle Suchmaschinen, die die noindex-Regel unterstützen, eine Seite auf deiner Website indexieren, platziere das folgende <meta>-Tag im Abschnitt <head> deiner Seite:

<meta name="robots" content="noindex">

Wenn nur die Google-Web-Crawler eine Seite nicht indexieren sollen:

<meta name="googlebot" content="noindex">

Beachte, dass einige Suchmaschinen die Regel noindex unterschiedlich interpretieren. Daher ist es möglich, dass deine Seite immer noch in den Ergebnissen anderer Suchmaschinen erscheint.

Hier findest du weitere Informationen zum <meta>‑Tag für noindex.

HTTP-Antwortheader

Statt eines <meta>‑Tags kannst du einen X-Robots-Tag‑HTTP‑Header mit dem Wert noindex oder none in deiner Antwort zurückgeben. Ein Antwortheader kann für Nicht-HTML-Ressourcen wie PDFs, Video- und Bilddateien verwendet werden. Hier ein Beispiel für eine HTTP-Antwort mit einem X-Robots-Tag‑Header, der Suchmaschinen anweist, eine Seite nicht zu indexieren:

HTTP/1.1 200 OK
(...)
X-Robots-Tag: noindex
(...)

Weitere Informationen zum Antwortheader noindex

noindex-Fehler beheben

Damit wir <meta>‑Tags und HTTP-Header sehen können, muss deine Seite gecrawlt werden. Wenn eine Seite weiterhin in den Ergebnissen erscheint, liegt das wahrscheinlich daran, dass sie seit dem Hinzufügen der Regel noindex noch nicht wieder von uns gecrawlt wurde. Je nach Wichtigkeit der Seite im Internet kann es mehrere Monate dauern, bis der Googlebot die Seite noch einmal besucht. Mit dem URL-Prüftool kannst du ein erneutes Crawlen einer Seite durch Google beantragen.

Wenn du eine Seite deiner Website schnell aus den Google-Suchergebnissen entfernen lassen musst, findest du entsprechende Informationen in unserer Dokumentation zu Entfernungen.

Ein anderer Grund, warum deine Seite möglicherweise weiterhin in den Ergebnissen erscheint, ist, dass die robots.txt-Datei die URL für Google-Web-Crawler blockiert und das Tag deshalb nicht erkannt werden kann. Um die Blockierung deiner Seite bei Google aufzuheben, musst du deine robots.txt-Datei bearbeiten. Mit dem Tool robots.txt-Tester kannst du deine robots.txt-Datei bearbeiten und testen.

Darüber hinaus muss die noindex‑Regel für den Googlebot sichtbar sein. Mit dem URL-Prüftool kannst du testen, ob deine Implementierung von noindex korrekt ist. Mit diesem Tool siehst du den HTML-Code, den der Googlebot beim Crawlen der Seite erhalten hat. Du kannst auch den Bericht zur Seitenindexierung in der Search Console verwenden, um im Blick zu behalten, aus welchen Seiten auf deiner Website der Googlebot eine noindex‑Regel extrahiert hat.