Trafficeinbrüche und Fragen der Site-Architektur

Dienstag, 30. Juni 2009

Wir bekommen viele Fragen zum Thema Site-Architektur und Einbrüche im Traffic, und die SMX London Konferenz bot eine gute Gelegenheit, näher auf diese Fragen einzugehen. Ich möchte euch die wichtigsten Punkte meiner Präsentation hier vorstellen und dabei zunächst erläutern, was es mit Trafficeinbrüchen auf sich hat und anschließend über Fragen des Site-Designs und der Architektur sprechen.

Trafficeinbrüche verstehen lernen

Wie ihr sicher wisst, unterliegen die Suchergebnisse ständig gewissen Schwankungen - das Web entwickelt sich permanent weiter, genauso wie unser Index . Außerdem tragen Verbesserungen unseres Verständnisses der Interessen und Suchanfragen unserer User dazu bei, dass sich Veränderungen in unseren Algorithmen in Bezug auf die Auswahl und das Ranking von Seiten ergeben können. Uns ist jedoch bewusst, dass solche Veränderungen verwirrend sein können und manchmal auch zu Missverständnissen führen. Deshalb möchten wir hier einige dieser "Gerüchte" direkt ansprechen.

Gerücht Nummer 1: Duplicate Content führt zu Trafficeinbußen!
Webmaster fragen sich häufig, ob Duplikate auf ihrer Site einen negativen Einfluss auf den Traffic ihrer Site haben. Wie in unseren Richtlinien für Webmaster bereits erwähnt , ist der doppelt vorhandene Content kein Verstoß gegen die Richtlinien - es sei denn, dieser ist gezielt zur Manipulation von Google und/oder Usern erstellt worden. Der zweite Teil meiner Präsentation zeigt nochmal genauer, wie ihr Duplicate Content mittels kanonischer Versionen in den Griff kriegen könnt.

Gerücht Nummer 2: Affiliate-Programme bewirken einen Trafficeinbruch!
Einzigartiger und interessanter Content ist entscheidend für ein gutes Benutzererlebnis. Falls eure Website an Affiliate-Progammen teilnimmt, ist es wichtig zu überlegen, ob es den gleichen Content bereits an vielen Stellen im Web gibt. Affiliate-Sites, die kaum oder gar keinen einzigartigen und interessanten Content bieten, werden in der Regel nicht besonders gut in unseren Suchergebnissen gelistet sein. Wenn aber Affiliate-Links im Kontext von einzigartigem und interessantem Content auftauchen, dann ist das für sich genommen noch kein Grund, der zu Einbrüchen im Traffic führen könnte.

Nachdem wir uns jetzt ein paar der häufigsten Bedenken angeschaut haben, möchte ich zwei wichtige Teile der Präsentation hervorheben. Der erste Teil zeigt, wie böswillige Attacken - wie z. B. das Einschleusen von verstecktem Text und/oder versteckten Links - dazu führen kann, dass eure Site aus den Google Suchergebnissen entfernt wird. In diesem Teil der Präsentation wird dann auch angesprochen, wie ihr den Google-Cache und die Webmaster-Tools verwenden könnt, um solche Probleme zu erkennen. Außerdem hilfreich in diesem Zusammenhang: Falls wir einen Verstoß gegen unsere Richtlinien für Webmaster, wie z. B. die Verwendung von verborgenem Text oder auch Malware auf eurer Site entdeckt haben, dann werdet ihr in der Regel eine Nachricht dazu im Nachrichten-Center der Webmaster-Tools finden.
Manchmal könnt ihr auch einen Rückgang des Traffics eurer Site feststellen, wenn eure User zu einer anderen Site weitergeleitet werden - z. B. dadurch, dass ein Hacker eine serverseitige oder seitenbasierte Weiterleitung eingerichtet hat, die bei Besuchern von Suchmaschinen aktiv ist. Ein ähnliches Szenario - aber mit anderem Ergebnis - liegt vor, wenn ein Hacker eine Weiterleitung nur für Crawler eingeschleust hat. Obwohl dies keinen unmittelbaren Einbruch des Traffics zur Folge hat, da die User und ihre Besuche auf der Site unbeeinflusst bleiben, kann es dazu führen, dass im Lauf der Zeit immer weniger Seiten eurer Site indexiert werden.




Site-Design und Fragen der Architektur
Nachdem wir gesehen haben, wie böswillige Änderungen eure Site und ihren Traffic beeinflussen können, schauen wir uns mal ein paar Fragen des Site-Designs und der Architektur an. Ihr wollt wahrscheinlich die Crawlbarkeit und Indexierbarkeit eurer Site sicherstellen. Was solltet ihr dabei beachten?
  • Als Erstes: Prüft, ob eure robots.txt-Datei den korrekten Status-Code liefert, und nicht etwa eine Fehlermeldung .
  • Beachtet einige bewährte Vorgehensweisen beim Umzug auf eine neue Site und nutzt das neue " Adressänderung "-Feature, das es seit kurzem in den Webmaster-Tools gibt .
  • Schaut euch die Einstellungen in der robots.txt-Datei an und stellt sicher, dass keine Seiten unbeabsichtigt blockiert werden - besonders auch dynamische Seiten oder solche, die mittels einer Rewrite-Rule umgeschrieben werden.
  • Schließlich: Nutzt das rel="canonical" Attribut , um die Indexierung von Duplicate Content auf eurer Domain zu verringern. Das Beispiel in der Präsentation zeigt, wie die Verwendung dieses Attributs Google dabei unterstützt zu verstehen, wie ein Duplikat mit der kanonischen Version zusammengeführt werden kann, so dass das Original, also die kanonische Seite, indexiert wird.





Zusammengefasst solltet ihr daran denken, dass Fluktuationen bei den Suchergebnissen normal sind. Es gibt aber Schritte, die ihr anwenden könnt, um böswillige Attacken zu vermeiden und es gibt Faktoren des Designs und der Architektur, die bewirken können, dass eure Site aus den Suchergebnissen verschwindet oder unvorhersehbar schwankt. Es ist ein guter Anfang, mehr über Attacken durch Hacker und Spammer zu erfahren. Dann solltet ihr sicherstellen, dass in Bezug auf Crawlbarkeit und Indexierbarkeit alles ordnungsgemäß funktioniert, indem ihr euch die HTML-Vorschläge in den Webmaster-Tools anschaut. Schließlich solltet ihr noch eure robots.txt-Datei prüfen, um zu verhindern, dass ihr unbeabsichtigt Googlebot blockiert. Und werft auch einen Blick auf mögliche Fehler durch eine nicht erreichbare robots.txt !

Traffic drops and site architecture issues (English version)

Post von Luisella Mazza, Search Quality Senior Analyst (Übersetzung von Sven, Search Quality)