Google-SEO-Sprechstunde vom Mai 2023

Dies ist das Transkript der Google-SEO-Sprechstunde vom Mai 2023. Wenn du websitespezifische Hilfe suchst, empfehlen wir dir, deine Frage im Google Search Central-Hilfeforum zu posten.

Duy: Kholizio fragt: Hat es negative Auswirkungen auf die von einer Domain ausgehenden Links, wenn die Domain bestraft wird?

Ich nehme an, dass du mit „bestraft“ meinst, dass die Domain von unseren Spam-Algorithmen oder manuellen Maßnahmen abgewertet wurde. Ja, im Allgemeinen stufen wir Links von Websites, von denen wir wissen, dass es sich um Spam handelt, als nicht vertrauenswürdig ein. So können wir die Qualität unserer Anchor-Signale aufrechterhalten.

Werden die Ergebnisse in den verschiedenen URL-Prüftools unterschiedlich generiert?

Martin: Ellen Edmands fragt: Werden die Ergebnisse auf dem gerenderten HTML-Tab URL-Prüftool und auf dem gerenderten HTML-Tab „Testtool für Rich-Suchergebnisse“ unterschiedlich generiert?

Im Allgemeinen werden sie auf dieselbe Weise generiert. Es gibt jedoch zwei Möglichkeiten, diese zu erstellen: über die Indexierungspipeline bei Verwendung des Tabs „Gecrawlte Seite anzeigen“ in der Google Search Console oder über den Live-Test in der Google Search Console oder den Live-Test im Testtool für Rich-Suchergebnisse. Beide Live-Tests überspringen Caching, um einen aktuellen Einblick in das Rendern der aktuellen Version der Seite zu geben. Es findet also kein Caching statt und ohne Caching kann es zu Zeitüberschreitungen kommen, die die gerenderte Ausgabe beeinträchtigen. Je nachdem, wo oder ob diese Zeitüberschreitungen auftreten, erhältst du möglicherweise unterschiedliche gerenderte HTML-Codes. Aufgrund der Art und Weise ihrer Erstellung werden jedoch genau dieselben Pfade unserer Infrastruktur genutzt.

Sind SEO-Einreichungen außerhalb der Seite auf Verzeichniswebsites und Websites mit sozialen Lesezeichen sinnvoll?

Gary: Shantanu fragt: Sind SEO-Einreichungen außerhalb der Seite auf Verzeichniswebsites und Websites mit sozialen Lesezeichen sinnvoll?

Ich mag diese Frage, weil sie mich daran erinnert, als ich vor 15 Jahren selbst mit SEO gearbeitet habe! Kurz gesagt: Ich würde meine Zeit nicht mit Verzeichniseinreichungen und sozialen Lesezeichen verschwenden. Dadurch verschwendest du wahrscheinlich Zeit mit Dingen, die dir überhaupt nicht helfen werden.

Warum werden Seiten mit Sammlungen auf meiner Website als „noindex“ ausgeschlossen?

John: Warum werden Seiten mit Sammlungen auf meiner Website als „noindex“ ausgeschlossen?

Ich habe mir die Website angesehen, die du erwähnt hast. Kurz gesagt, sind es die Seiten mit den paginierten Kategorien auf deiner Website, die ein noindex-Robots-<meta>-Tag haben. In solchen Fällen prüfe ich die genaue URL, die in der Search Console angegeben ist. Das kannst du ganz einfach prüfen, indem du die Seite in einem Browser öffnest und den Quellcode anzeigen lässt. Dort kannst du dann nach Robots-<meta>-Tags und „googlebot“ suchen, um Googlebot-<meta>-Tags zu finden. Auf einigen Seiten können mehrere vorhanden sein. In deinem Fall gibt es zwei separate Robots-<meta>-Tags und das zweite hat das noindex-Tag. In fortgeschrittenen Fällen solltest du die Mobilgeräte-Emulationsfunktion in Chrome und die Chrome-Option „Untersuchen“ in den Entwicklertools verwenden, um dir das geladene DOM anzusehen. Du kannst auch die Funktion zur URL-Prüfung in der Search Console nutzen. In diesem Fall wird das wahrscheinlich durch ein Plug-in oder eine Einstellung auf der E-Commerce-Plattform deiner Website verursacht und es ist vielleicht für dich gar kein Problem.

Duy: Jemand fragt: Links zu meiner Website scheinen von russischen Websites zu stammen. Wie kann ich diese Links blockieren? Ich glaube, man möchte meiner Website schaden, indem das Ranking in den Suchergebnissen herabgestuft wird.

Im Allgemeinen erkennen unsere Algorithmen Spam- oder betrügerische Links im Internet sehr gut und ignorieren sie. In manchen Fällen gibt es sehr viele davon. Du musst dir darüber keine Gedanken machen. Vertrau einfach unseren Systemen und kümmer dich um die Verbesserung deiner Website.

Ist das Back-End einer Website wichtig für das Ranking?

Martin: Eshragh fragt: Ist das Back-End einer Website wichtig für das Ranking? Ist es beispielsweise wichtig, ob WordPress oder ein benutzerdefiniertes CMS oder eine bestimmte Programmiersprache zum Rendern von HTML verwendet wird?

Nein, normalerweise nicht. Allerdings sind die Leistung und das Verhalten wichtig. Ist dein Server beispielsweise besonders langsam, kann sich dies auf das Ranking auswirken.

Möchtest du mehr als einen Websitenamen für Snippets zulassen?

John: Madeleine fragt: Möchtest du mehr als einen Websitenamen für Snippets zulassen, z. B. für die Stammdomain UND Subdomains?

In unserer Dokumentation zu Websitenamen wird erwähnt, dass dies derzeit nur für den Domainnamen und nicht für Subdomains gilt. Ich kann keine Zusagen im Hinblick auf zukünftige Änderungen machen. Bei manchen Änderungen beginnt das jeweilige Team mit der Lösung eines Teilproblems, analysiert dann die Ergebnisse und beschäftigt sich danach mit dem nächsten Teil. Wir können jedoch nichts für die Zukunft versprechen.

Dauert die Indexierung meiner 16.000 Seiten länger als sechs Monate?

Gary: Tom Baker fragt: Dauert die Indexierung meiner 16.000 Seiten länger als sechs Monate? Ich erkenne eine Steigerung von fünf bis 15 Seiten pro Woche und finde, das ist langsam.

Wie schnell eine Website indexiert wird, hängt von einer Reihe von Faktoren ab. Am wichtigsten ist jedoch die Qualität der Website, gefolgt von ihrer Beliebtheit im Internet. Nachdem du dich vergewissert hast, dass deine Inhalte die höchste Qualität haben, kannst du Werbung in den sozialen Medien schalten, um das Interesse der Nutzer zu wecken. Das sollte helfen.

Ist es bei Permalinks besser, wenn in der URL Wörter ausgeschrieben werden, z. B. „-ist-es-“ statt „-ists-“?

John: Michael fragt: Ist es bei Permalinks besser, wenn in der URL Wörter ausgeschrieben werden, z. B. „-ist-es-“ statt „-ists-“? Gibt es im Allgemeinen eine Best Practice dafür?

Das spielt keine Rolle. Im Allgemeinen haben Wörter in URLs sehr geringe Auswirkungen auf die Google Suche. Unsere einzige Empfehlung ist, konsistent zu sein, damit nicht versehentlich auf verschiedene Weise mit derselben Seite verlinkt wird. Da die Auswirkungen minimal sind, die Änderung von URLs auf einer gesamten Website jedoch mit einem ziemlich großen Aufwand verbunden ist, würde ich das nicht empfehlen, besonders, wenn es sich nur um ein vages SEO-Versprechen handelt, von dem du irgendwo gelesen hast.

Ist es für Googlebots schwieriger, ein Bild zu crawlen und zu indexieren, wenn die Bild-URL viele Ebenen umfasst?

Martin: Aman fragt: Ist es für Googlebots schwieriger, ein Bild zu crawlen und zu indexieren, wenn die Bild-URL viele Ebenen umfasst? Beispiel: https://www.abc.com/ab/cd/content/category/image/hires/imagefilename.jpg

Die gute Nachricht ist: Nein.

Gary: Anonym fragt: Auf meine Website verweisen viele Spam-Backlinks. Wie kann ich das verhindern?

Du kannst sie einfach ignorieren. Das Internet ist riesig und es gibt sehr wahrscheinlich auch Links, die aus keinen guten Quellen stammen. Uns begegnen solche Links seit 25 Jahren und wir sind mittlerweile sehr gut darin, sie zu ignorieren. Ich würde also sie einfach ignorieren. Wenn du damit Probleme hast, kannst du das Tool zum Ungültigerklären von Links in der Search Console verwenden.

Ist es möglich, dass mir in der Google Search Console falsche Suchanfragen angezeigt werden?

John: Alexis fragt: Ist es möglich, dass mir in der Google Search Console falsche Suchanfragen angezeigt werden?

Leistungsdaten in der Search Console werden erfasst, wenn deine Website für bestimmte Suchanfragen angezeigt wird. Die Daten sind nicht theoretisch, sondern basieren darauf, was den Nutzern bei der Suche angezeigt wurde. Wenn ich Daten sehe, die ich nicht verstehe, versuche ich, die Einstellungen des Berichts einzugrenzen, um die spezifischen Eigenschaften zu finden. War es nur in einem bestimmten Land? Oder vielleicht ein bestimmter Suchtyp? Etwas in einem sehr kurzen Zeitraum? Manchmal ist es möglich, die gezeigten Suchergebnisse zu reproduzieren. Es kann jedoch auch vorkommen, dass sie entweder nicht mehr oder nur gelegentlich angezeigt werden. Manchmal sind das lustige Rätsel und manchmal können sie einfach nicht reproduziert werden.

Ist es OK, vollständige HTML-Seiten über serverseitiges Rendering für Suchmaschinen bereitzustellen und clientseitiges Rendering für Nutzer zu verwenden?

Martin: Madeleine fragt: Wir stellen den vollständigen HTML-Code einer Seite über das serverseitige Rendering (SSR) für alle Suchmaschinen-Bots bereit und verwenden clientseitiges Rendering für den Nutzer. Ist dies eine geeignete Lösung für JavaScript-SEO?

Diesen Ansatz nennen wir dynamisches Rendering. Die Einrichtung und Wartung werden dadurch komplizierter, aber wenn es funktioniert, ist es kein Problem. Für neue Projekte empfehlen wir es aufgrund der Komplexität der Kosten für Websiteinhaber nicht. Das ist zwar keine optimale Lösung, aber wenn sie funktioniert, sehe ich keinen Grund, dies zu ändern.

Wie wichtig sind beschreibende Dateinamen für Bilder?

Gary: Al G. fragt: Wie wichtig sind beschreibende Dateinamen für Bilder?

Gute Frage! In der Regel sind sie ganz hilfreich, aber wenn du sehr viele Bilder hast, z. B. Millionen, musst du dir überlegen, ob es sich wirklich lohnt. Wenn du nur wenige hier und da hast und gute Dateinamen verwendest, lohnt es sich wahrscheinlich auch bei sehr vielen nicht. Sieh dir auch unsere Best Practices für die Suchmaschinenoptimierung für Bilder an.

Wie lassen sich nach einer Umgestaltung die Zugriffe am besten steigern?

John: Nächste Frage: Wie lassen sich nach einer Umgestaltung die Zugriffe am besten steigern?

Es gibt viele verschiedene Möglichkeiten für Umgestaltungen. Einige Websites sind danach komplett neu und haben neue URLs und völlig neue Seitenstrukturen. In solchen Fällen sollte es eher als Websiteverschiebung betrachtet werden und Weiterleitungen umfassen. Andernfalls ist nach dem Neustart möglicherweise ein direkter Rückgang zu beobachten. In deinem Fall scheint sich der Rückgang im Laufe der Zeit zu verlangsamen. Das deutet darauf hin, dass nicht das neue Design das Hauptproblem ist, sondern dass sich eher das Verhalten oder die Erwartungen der Suche, des Webs oder der Nutzer im Laufe der Zeit verändert haben. Normalerweise ist das weniger ein technisches Problem. Vielmehr geht es darum, die Welt um deine Website herum zu verstehen und deine Website entsprechend anzupassen. Das ist leider nicht immer einfach.

Rendert der Googlebot für das Crawling einer organischen Suche jede gecrawlte Seite? Falls nicht, wie oft geschieht das?

Martin: Jason fragt: Rendert der Googlebot für das Crawling einer organischen Suche jede gecrawlte Seite? Falls nicht, wie oft geschieht das?

Ja und nein. Nicht jede gecrawlte Seite wird gerendert. Beispielsweise wird ein Crawling, das zu einer 404-Fehlerseite führt, nicht gerendert. Jede fehlerfrei gecrawlte Seite wird gerendert.

Kann es schaden, Schema-Markup auf einer Seite zu verwenden, das ungültig ist?

Gary: Matthias fragt: Kann es schaden, Schema-Markup auf einer Seite zu verwenden, das ungültig ist (z. B. product-Markup ohne offer/review/aggregateRating)?

Kurz gesagt: Nein. Die lange Antworte lautet auch „Nein“, denn wenn wir es nicht parsen können, wird es auch nicht verwendet. Das kann dazu führen, dass dir einige Suchergebnis-Spezialformate wie Rich-Attribute unter deinen Snippets entgehen.

Wie kann ich von einer 302-Weiterleitung zu einer 301-Weiterleitung wechseln?

John: Hazim fragt: Wie kann ich von einer 302-Weiterleitung zu einer 301-Weiterleitung wechseln?

Wende dich in diesem Fall an den Host deiner Website oder den Domain-Registrar. Die gute Nachricht ist, dass alte Weiterleitungen von der Google-Suche als permanente Weiterleitung erkannt werden. Das ist im Moment also nicht so wichtig für deine Website. Es empfiehlt sich, die theoretisch korrekte Weiterleitung zu verwenden. Aber die Google Suche versucht auch, mit allem zu arbeiten, sofern es sich um eine Weiterleitung handelt.

Schaden umfangreiche Inhalte aus Textbausteinen einer Website?

Gary: Anan fragt: Hallo, schaden umfangreiche Inhalte aus Textbausteinen einer Website? Ich meine dabei nicht Kontaktdaten, Datenschutzerklärungen usw. Vielen Dank.

Im Allgemeinen sollten umfangreiche Inhalte aus Textbausteinen keine großen Auswirkungen auf die Präsenz deiner Website in der Google Suche haben. Du solltest dir allerdings überlegen, wie Nutzer diese wahrnehmen, denn sie mögen sie vielleicht überhaupt nicht.

Wie kann ich verhindern, dass der Googlebot beim Rendern des JavaScript-Codes auf einer Seite eine teure externe API aufruft?

Martin: Matthew fragt: Wie kann ich verhindern, dass der Googlebot beim Rendern des JavaScript-Codes auf einer Seite eine teure externe API aufruft?

Du kannst die API über robots.txt blockieren, aber Vorsicht: Wenn du clientseitiges Rendering verwendest und der Inhalt der Seite von diesen APIs abhängt, muss der Googlebot auf die API zugreifen, um den Inhalt zu sehen. Andernfalls würde der Inhalt deiner Seiten nicht erfasst werden, wenn der Googlebot sie aufruft. Bei externen Drittanbieter-URLs, bei denen der Zugriff mithilfe von robots.txt nicht verhindert werden kann, kannst du diese APIs bedingt in deinem JavaScript-Code laden und sie überspringen, wenn der Googlebot die Seite anfordert.

Gibt es eine bestimmte Methode, um Domainnamen zu ändern, ohne das SEO-Ranking zu beeinträchtigen?

Gary: D.ray von mu.se fragt: Gibt es eine bestimmte Methode, um Domainnamen zu ändern, ohne das SEO-Ranking zu beeinträchtigen?

Eine gut durchgeführte Websiteverschiebung, einschließlich Domainänderungen, sollte keinen dauerhaften Traffic-Verlust zur Folge haben. Ja, es gibt also eine Möglichkeit, einen Domainnamen zu ändern, ohne das Ranking zu beeinträchtigen. Informationen dazu findest du in unserer Dokumentation zur Websiteverschiebung. Wir bieten auch Links zu professionellen Leitfäden anderer Anbieter.

Mein Marken-Favicon wurde vor über einem Monat hochgeladen. Bei Google wird jedoch noch mein Webflow-Favicon angezeigt.

John: Josh fragt: Mein Marken-Favicon wurde vor über einem Monat hochgeladen. Bei Google wird jedoch noch mein Webflow-Favicon angezeigt. Wie lässt sich das Problem lösen, damit mein Marken-Favicon verwendet wird, das ich zuvor hochgeladen habe?

Hier findest du ein Hilfedokument zu Favicons, in dem du weitere Informationen dazu findest. Außerdem sollte das alte Favicon nicht mehr auf deiner Website vorhanden oder darüber verlinkt sein. Idealerweise solltest du die alte Datei also zur neuen weiterleiten. Kurz gesagt: Achte darauf, dass alles einheitlich ist und dass es für Suchmaschinen keine Missverständnisse gibt. In der Regel kann es bis zu einem Monat dauern, bis die Änderungen angezeigt werden. Wenn du allerdings noch andere Probleme beheben möchtest, kann es auch etwas länger dauern. Außerhalb von Google hat Glenn Gabe einen fantastischen Leitfaden zur Behebung von Favicon-Problemen zusammengestellt. Dort findest du weitere Tipps.

Welche Best Practices zum Aufteilen der Inhalte gibt es, wenn eine Website Beiträge in mehreren Sprachen enthält, die manuell übersetzt werden?

Gary: V fragt: Welche Best Practices zum Aufteilen der Inhalte gibt es, wenn eine Website Beiträge in mehreren Sprachen enthält, die manuell übersetzt werden?

Das liegt ganz bei dir. Aus Sicht der Google Suche spielt es keine Rolle, ob du URL-Parameter wie unsere URL-Hilfe verwendest, z. B. ?hl=ja, oder den Sprachcode in den URL-Pfad einfügst. Achte einfach darauf, dass du für jede Sprachversion eine eindeutige URL hast.

John: Michał fragt: Akzeptiert Google Links wie <select><option value="https://www.examplepage.com">Page</option>? Funktioniert das?

Wir behandeln diesen Link nicht als Link, erkennen aber möglicherweise die URL und crawlen sie separat. Wenn etwas als Link behandelt werden soll, sollte es sich um einen normalen Link handeln. Wir haben vor Kurzem Richtlinien zum Erstellen von Links veröffentlicht, die sich dein Webentwickler bei Fragen zu den unterstützten Funktionen durchlesen kann. Außerdem würde diese Kombination von HTML-Code nicht unbedingt als Link im Browser funktionieren, sondern könnte stattdessen in einer Drop-down-Liste für ein Formular verwendet werden.

Robots.txt ist in der Google Search Console nicht erreichbar. Warum?

Gary: Aslam Khan fragt oder stellt eigentlich fest: Robots.txt ist in der Google Search Console nicht erreichbar.

Wenn in der Search Console das Problem nicht erreichbare robots.txt-Datei für deine Property gemeldet wird, ist auf deiner Website oder deinem Server ein Problem aufgetreten. Du musst es beheben, um deine Website in der Google Suche sehen zu können. Wir können da leider nichts unternehmen. Als Erstes solltest du die Firewallregeln für deinen Server prüfen. Prüfe, ob dir in den Blockierregeln etwas seltsam vorkommt, und sieh dir dann die Serverkonfigurationsdateien an. Wenn du nicht weißt, wie das funktioniert, reiche ein Support-Ticket bei deinem Hostanbieter ein. Er kann dir höchstwahrscheinlich helfen.

Wenn eine hreflang-URL in einer Sitemap erwähnt wird, wie wirken sich dann Properties wie <lastmod> oder <priority> darauf aus?

John: Carlos fragt: Wenn eine hreflang-URL in einer Sitemap erwähnt wird, wie wirken sich dann Properties wie <lastmod> oder <priority> darauf aus?

Wenn in einer Sitemap-Datei die hreflang-Annotationen angegeben sind, beziehen sich diese im Wesentlichen auf andere URLs. Dies muss bei allen URLs des „hreflang“-Sets bestätigt werden. Es ist jedoch etwas anderes, zu wissen, wann eine URL gecrawlt wird. Beim Crawling werden unter anderem die Attribute der jeweiligen URL berücksichtigt, z. B. das Datum der letzten Änderung. Es kann z. B. passieren, dass sich eine Sprachversion unabhängig ändert, etwa aufgrund von Korrekturen einer Übersetzung. Selbst das Datum der letzten Änderung ist lediglich ein ungefähres Signal unter anderen Signalen, garantiert jedoch nicht, dass eine Seite bald wieder gecrawlt wird. Wichtig ist auch zu wissen, dass ein höheres Crawling nicht unbedingt das Ranking einer Webseite verbessert. Daher musst du nicht versuchen, eine höhere Crawling-Frequenz zu erzwingen.

Gary: Nick van Schaik fragt: Soll ich Affiliate-Links in der robots.txt-Datei blockieren, um das Crawling-Budget zu verwalten, oder die Disallow-Regel deaktivieren und verhindern, dass Affiliate-Links (mithilfe des noindex-Tags) indexiert werden?

Das Blockieren von Affiliate-Links in der robots.txt-Datei scheint sinnvoll. Wir sind zwar selbst ziemlich gut darin, sie zu erkennen und zu ignorieren, aber mit einer robots.txt-Disallow-Regel hast du die Kontrolle und kannst wahrscheinlich viel einfacher an deinem Crawling-Budget sparen.