Freitag, 22. Juni 2007
Anfang Juni nahm ich an der Duplicate Content-Session auf der SMX Advanced in Seattle teil. Ich konnte der Versuchung nicht widerstehen zu demonstrieren, wie sich Buffy in der alltäglichen Search Marketing Welt wiederfindet . Aber hauptsächlich war ich dort, um von euren Duplicate Content-Problemen zu erfahren und Ideen zu sammeln, wie Suchmaschinen dabei helfen können.
Vor einigen Monaten verfasste Adam einen großartigen Beitrag zum
Umgang mit Duplicate Content.
Dies sind die wichtigsten Dinge, die man über Duplicate Content wissen sollte:
- Google will einmalige Ergebnisse liefern und wählt deswegen automatisch eine Version aus, falls eure Websites Duplicate Content aufweisen. Falls ihr euch also nicht die Mühe machen wollt, eure Duplikate auszusieben, könnt ihr einfach uns dafür Sorge tragen lassen.
- Duplicate Content auf eurer Site führt nicht zu Penalties. Wenn doppelte Seiten erkannt werden, taucht im Interesse der Ergebnisvielfalt nur eine Version in den Suchergebnissen auf.
- Duplicate Content führt nicht dazu, dass eure Site in die Supplemental Results rutscht. Allerdings kann dies indirekt ausgelöst werden, falls verschiedene Links auf die unterschiedlichen Versionen eurer Seite zeigen und so einen niedrigeren PageRank verursachen.
Auf der SMX Advanced-Konferenz fragten wir, welche Duplicate Content-Probleme für euch am gravierendsten sind. Das Publikum war am meisten besorgt über Scraper-Sites, die Mehrfachverwendung von Content mittels Feeds (d.h. syndication) und über interne Duplizierung. Wir haben dazu eine Menge potenzieller Lösungen diskutiert und werden diese – wie auch andere – bei der Weiterentwicklung unseres Toolsets berücksichtigen. Für diejenigen, die nicht an der Diskussionsrunde teilnehmen konnten, ist hier die Liste mit den möglichen Lösungen, die wir besprochen haben:
Festlegung der bevorzugten Version einer URL in der Sitemap-Datei
Eine Möglichkeit, die wir diskutierten, ist die Festlegung der bevorzugten Version einer URL in einer Sitemap-Datei
.
Wenn wir eine Vielzahl an URLs finden, die zu ein und demselben Content zeigen, k
ö
nnten wir die Links zu der bevorzugten Seite b
ü
ndeln und nur diese indexieren, so der Vorschlag.
Angebot einer Methode zur Kennzeichnung von Parametern, die bei der Indexierung wegfallen sollen
Wir diskutierten darüber, dies entweder in einem Interface wie den Webmaster-Tools oder aber über die robots.txt-Datei einer Website anzubieten. Falls eine URL zum Beispiel Session-IDs enthält, könnte der Webmaster die Variable der Session-ID als solche kennzeichnen. Dies würde Suchmaschinen helfen, eine sauberere Version der URL zu indexieren und die Links zusammenzufassen. Das Publikum tendierte zu einer Erweiterung der robots.txt-Datei für diese Zwecke.
Angebot einer Authentifizierungsmethode für Content-Eigentum
Dies würde Suchmaschinen mit zusätzlichen Informationen versorgen um sicherzustellen, dass wir die Originalversion eines Artikels indexieren statt eine gescrapte oder eine über Feeds verbreitete Version. Bitte beachtet, dass wir hier bereits einen ziemlich guten Job machen und nicht viele Teilnehmer im Publikum dies als ein Hauptproblem ansahen. Das Publikum war jedoch interessiert an einer Form der Authentifizierung als zusätzlichem Schutz. Einige schlugen vor, jeweils die Seite mit dem frühesten Datum zu verwenden; aber Erstellungszeitpunkte sind nicht immer zuverlässig. Es schlug auch jemand vor, dass Website-Inhaber ihren Content registrieren lassen können. Dies könnte aber auch Probleme hervorrufen, da nicht so findige Website-Inhaber vielleicht nicht wissen, wie man Content registriert. Dadurch könnte passieren, dass jemand anderes den Content stattdessen für sich registriert. Im Moment stützen wir uns auf eine Anzahl von Faktoren wie etwa die Autorität einer Website und die Anzahl an Backlinks. Für die Weiterverbreitung von Content mittels Feeds schlagen wir vor, dass ihr die Websites, die euren Content verwenden wollen, dazu anhaltet, ihre Version mittels der robots.txt-Datei zu blocken. So stellt ihr sicher, dass nur eure Version in den Suchergebnissen erscheint.
Bereitstellung eines Duplicate Content-Berichts für Website-Inhaber
Es gab gro ß en Zuspruch für die Idee eines Duplicate Content-Berichts, in welchem aufgelistet würde, welche Seiten innerhalb eurer Website von Suchmaschinen als Duplikate angesehen werden, wie auch, welche Seiten auf anderen Websites Duplikate eures Contents sind. A ußerdem diskutierten wir die Möglichkeit einer Alarmfunktion in diesem Bericht, so dass Website-Inhaber via Email oder RSS über neue Duplicate Content-Probleme benachrichtigt werden könnten (vor allem bei externer Duplizierung).
Zusammenarbeit mit Blogging-Software und Content Management Systemen an Duplicate Content-Fragen
Einige Probleme um Duplicate Content begründen sich darauf, wie eine Software eine Website erstellt und die URLs strukturiert. Zum Beispiel könnte ein Blog denselben Content auf der Homepage, einer Permalink-Seite, einer Kategorieseite und einer Archivseite haben. Wir sind auf jeden Fall bereit, mit Software-Herstellern über Wege zu sprechen, wie man den Usern einfache Lösungen bereitstellen kann.
Neben der Diskussion potenzieller Lösungen für Duplicate Content-Probleme hatte das Publikum auch einige Fragen.
Q: Wie reagieren Suchmaschinen darauf, wenn ich eine ganze Reihe von internen Links mit dem NoFollow-Attribut versehe, um Probleme mit Duplicate Content zu reduzieren?
Die Anzahl an Nofollow-Links auf einer Website wird nicht als negatives Signal bewertet. Es ist jedoch möglicherweise nicht die beste Methode, Suchmaschinen vom Crawlen duplizierter Seiten abzuhalten, weil ja auch andere Websites zu dieser Seite linken könnten. Eine bessere Methode wäre es, Seiten, die nicht gecrawlt werden sollen, mittels der robots.txt-Datei zu blocken.
Q: Werden Suchmaschinen weiterhin mit Sitemaps zusammen arbeiten?
Wir haben sitemaps.org im November letzten Jahres gelauncht und uns seitdem weiterhin regelmäßig getroffen. Im April fügten wir die Option hinzu, dass ihr uns in der robots.txt-Datei über eure Sitemap informieren könnt. Wir wollen weiterhin zusammen an solchen Initiativen arbeiten, um euch das Leben als Webmaster einfacher zu machen.
Q: Viele Seiten auf meiner Website bestehen hauptsächlich aus Schaubildern, die auf jeder Seite unterschiedlich sind. Wie kann ich sicherstellen, dass Suchmaschinen diese Seiten nicht für Duplikate halten, weil sie die Bilder nicht interpretieren können?
Um sicherzustellen, dass Suchmaschinen diese Seiten als Unikate erkennen, solltet ihr auf jeder Seite unterschiedlichen Text einfügen (zum Beispiel unterschiedliche Titel, Bildunterschriften oder Beschreibungen für jedes Schaubild) sowie Alt-Texte für jedes Bild. (Zum Beispiel alt=“Bild, das Willows Entwicklung zum Bösen zeigt” statt einfach alt=“Bild” )
Q: Ich habe meinen Content an viele Affiliates weitergegeben, und nun ranken einige dieser Sites besser als meine Website. Was kann ich tun?
Wenn eurer Content verteilt ist, mag es notwendig sein, den Content auf eurer Seite aufzuwerten und zu erweitern, um eure Website einzigartig zu machen.
Q: Bei der Websuche möchte ich Duplikate in den Suchergebnissen sehen. Könnt ihr das als eine Option anbieten?
Wir wissen, dass die meisten User es vorziehen, keine Duplikate in den Suchergebnissen zu sehen. Die Fragestellerin meinte im Besonderen, dass sie eine Information möglicherweise nicht von einer bestimmten Website bekommen möchte und daher gern andere Optionen hätte. In diesem Fall haben andere Websites jedoch wahrscheinlich nicht identischen Content und würden daher in den Suchergebnissen erscheinen. Denkt daran, dass ihr den “&filter=0”-Parameter hinter der Google Web Search-URL angeben könnt, um weitere ähnliche Resultate zu erhalten.
Ich habe alle diese Fragen und mögliche Lösungen zurück in mein Team und zu anderen Googlern gebracht. Wir werden weiterhin daran arbeiten, die besten Suchergebnisse zu liefern und die Zusammenarbeit mit euch, den Webmastern, auszuweiten. Wenn ihr weitere Gedanken hierzu habt, wir würden sie liebend gern hören!
Post von Vanessa Fox (Übersetzung von Manuel, Search Quality)