Montag, 26. März 2007
Am 14. Februar 2007 hielt Vanessa Fox auf der
Search Engine Strategies Konferenz
in London einen Vortrag über das erfolgreiche
Erstellen von Websites
. Wenn ihr die Konferenz oder den Vortrag verpasst habt, so bietet euch der folgende Artikel einige wertvolle Tipps, wie ihr eure eigene Website suchmaschinenfreundlicher gestalten könnt.
Stellt sicher, dass User und Suchmaschinen auf eure Seite zugreifen können!
Original
Post von Vanessa Fox (Übersetzung von Juliane)
Stellt sicher, dass User und Suchmaschinen auf eure Seite zugreifen können!
-
Der Link
Crawling-Fehler
in den Webmaster-Tools führt zu einer Auflistung der Seiten, die der Googlebot aufgrund von Serverfehlern nicht durchsuchen konnte. Sollte der Googlebot Seiten nicht crawlen können, so werden diese nicht indexiert und können möglicherweise auch dem User beim Zugriff Probleme bereiten.
- Sorgt dafür, dass die robots.txt-Datei nicht versehentlich den Crawler von Seiten abweist,die indexiert werden sollen. Ihr könnt URLs, die der Suchroboter nicht crawlen konnte, mithilfe der Webmaster-Tools ermitteln. Das robots.txt-Analyse-Tool ermöglicht es euch zu testen, ob die robot.txt-Datei dem Crawler die Verzeichnisse zugänglich macht, die ihr indexieren lassen wollt.
-
Überprüft den
Googlebot activity report,
um festzustellen, wie lange der Download eurer Website dauert. Auf diese Weise fallen euch gleich Geschwindigkeitsprobleme innerhalb des Netzwerks auf.
- Ist auf Teilen eurer Website, die indexiert werden sollen, eine Anmeldung notwendig, so achtet darauf, dass auf den Seiten ohne Anmeldung durchsuchbarer Content zur Verfügung steht. So könnt ihr zum Beispiel einige Auszüge eines Artikels außerhalb des Registrierungsbereichs plazieren und diese mit einem Link versehen, der zum vollständigen Artikel innerhalb des Anmeldebereichs führt.
-
Wie durchsuchbar ist eure Seite? Wie wird eure Seite in Browsern für Handys oder in Screenreadern dargestellt? Testet eure Website in verschiedenen Umgebungen und vergewissert euch, dass der Content auch für Nutzer dieser Techniken zugänglich ist.
- Ladet eure Seite in einem Textbrowser oder alternativ in einem Browser, in dem Javascript deaktiviert ist und Bilder nicht angezeigt werden. Könnt ihr immer noch euren Text und die Navigationselemente sehen?
-
Sorgt dafür, dass ihr für die Anzeige von Text und für Navigationselemente auf eurer Seite HTML verwendet und Text
nicht in Bildern
darstellt. Der Googlebot kann in Bildern enthaltenen Text nicht erkennen. Vorhandene Bilder sollten mit Beschreibungen im Alt-Tag versehen werden.
-
Benutzt nur Flash, wenn es unbedingt erforderlich ist. Vor allem sollte nicht der gesamte Text in Flash dargestellt sein. Ideal bei einer auf Flash basierenden Website ist es, wenn in HTML geschriebener Text mit vereinzelten Flash-Animationen kombiniert wird. Wenn ihr Flash verwendet, so erstellt die Navigation eurer Website in HTML.
- Sämtliche Seiten sollten jeweils einen eindeutigen und aussagekräftigen Title-Tag und Meta-Tag zur Beschreibung der Seiten aufweisen.
-
Achtet darauf, dass die wichtigsten Elemente eurer Website (zum Beispiel euer Firmenname und das Thema) in HTML dargestellt sind.
-
Vergewissert euch
,
dass die Suchbegriffe, die Nutzer zum Auffinden eurer Website verwenden könnten, auch tatsächlich enthalten sind.
- Vermeidet möglichst Frames . Eine Frame-basierte Seite besteht aus mehr als einer URL, was das Indexieren zusätzlich erschwert.
- Ihr solltet gewährleisten, dass der Server eine 404 Fehlermeldung für jede nicht gefundene Seite ausgibt. Allerdings sind manche Server so konfiguriert, dass sie mit einem 200 Status-Code antworten. Dies kann dann dazu führen, dass Suchmaschinen versuchen, nicht existierende Seiten zu crawlen und zu indexieren anstelle der gültigen und aktuellen Seiten der Website.
-
Vermeidet ein endloses Crawlen eurer Website. Wenn eure Website beispielsweise einen unendlich fortlaufenden Kalender hat, so verseht die Links zu den dynamisch generierten Kalenderseiten mit einem
"nofollow"-Attribut
. Da jede Suchmaschine das nofollow-Attribut anders interpretiert, ist es empfehlenswert, die Informationen auf den entsprechenden Hilfeseiten zu lesen. Ihr könnt auch den
nofollow-Meta-Tag
nutzen, um sicherzustellen, dass der Crawler den Links auf einer bestimmten Seite nicht folgt oder benutzt die robots.txt-Datei, damit Suchmaschinen keinen Links folgen, die sie zu Endlosschleifen führen würden.
- Stellt sicher, dass für das Crawlen keine Session-IDs oder Cookies verwendet werden müssen.
- Vermeidet bei dynamischen Seiten ein Übermaß an Parametern und verwendet stattdessen suchmaschinenfreundliche URLs. Einige Content Management Systeme erlauben einen solchen suchmaschinenfreundlichen Rewrite von URLs.
Original
Post von Vanessa Fox (Übersetzung von Juliane)