Sprecht die Sprache der Suchroboter

Freitag, 28. März 2008

Wir alle wissen, wie freundlich Googlebot ist . Wie alle wohlwollenden Roboter hört er auf uns und respektiert unser Anliegen, wenn Teile unserer Site nicht gecrawlt werden sollen. Wir können ihm einfach eine robots.txt-Datei bereitstellen und er wird sich gerne danach richten. Aber was ist, wenn euch der Gedanke, direkt mit dem Googlebot zu kommunizieren, etwas Angst einjagt? Schließlich sprechen nicht alle von uns fließend die robots.txt -Sprache. Aus diesem Grund sind wir froh, euch euren persönlichen Übersetzer für den Suchroboter vorzustellen: Der robots.txt-Generator in den Webmaster-Tools .
Das Tool wurde entwickelt, damit ihr eine einfache und interaktive Möglichkeit habt, eine robots.txt-Datei zu erstellen. Im einfachsten Fall müsst ihr nur die Dateien und Verzeichnisse angeben, die nicht von den Suchrobotern gecrawlt werden sollen.



Falls benötigt, könnt ihr auch detaillierte Regeln für bestimmte Suchroboter und Teile eurer Site festlegen.



Wenn ihr mit dem Generator-Tool eine robots.txt-Datei erstellt habt, könnt ihr die Wirkung dieser Datei anschließend mit unserem Analyse-Tool für robots.txt-Dateien überprüfen. Wenn ihr damit fertig seid, könnt ihr die erzeugte Datei einfach im Root-Verzeichnis eurer Site speichern und alles sollte dann wie gewünscht funktionieren. Hier sind einige wichtige Punkte, die ihr bei der Arbeit mit robots.txt-Dateien beachten solltet:

  • Nicht alle Suchmaschinen unterstützen jeden Eintrag in der robots.txt-Datei
    Der robots.txt-Generator erzeugt Dateien, die von Googlebot und ebenso von den meisten größeren Suchrobotern korrekt interpretiert werden. Es kann jedoch vorkommen, dass einzelne Suchroboter nicht alle vom robots.txt-Generator verwendeten Features verstehen.


  • Die robots.txt-Datei ist lediglich eine Anfrage
    Auch wenn man es für die bekannten Suchmaschinen mit großer Wahrscheinlichkeit ausschließen kann, gibt es doch einige skrupellose Suchroboter, die sich nicht an alle Anweisungen in der robots.txt-Datei halten und Inhalte crawlen, die eigentlich vom Crawling ausgeschlossen sind. Falls ihr sensible Daten habt, die ihr auf jeden Fall schützen wollt, solltet ihr diesen Content mittels eines passwortgesicherten Verzeichnisses schützen und euch nicht auf die robots.txt-Datei verlassen.

Wir hoffen, dass euch dieses Tool dabei hilft, Googlebot und anderen Suchrobotern eure Wünsche bezüglich des Crawlings mitzuteilen. Weitere Informationen zu den robots.txt-Dateien findet ihr in unserer Hilfe für Webmaster . Um weiter über robots.txt-Dateien und Bots zu diskutieren, könnt ihr unser Forum für Webmaster besuchen.

Speaking the language of robots ( English version )

Post von Sean Harding, Webmaster Tools Team (Übersetzung von Sven, Search Quality)