Google-SEO-Sprechstunde vom Juni 2023

Dies ist das Transkript der Google-SEO-Sprechstunde vom Juni 2023. Wenn du websitespezifische Hilfe suchst, empfehlen wir dir, deine Frage im Google Search Central-Hilfeforum zu posten.

Unsere syndizierte Version wird in Google Discover angezeigt, obwohl kanonische Links verwendet werden. Warum?

John: Beth fragt: Wir lassen die Syndikation unserer Inhalte zu. Allerdings erscheint die syndizierte Version häufig in Google Discover, obwohl kanonische Links verwendet werden. Wie können wir das vermeiden?

Die Frage passt gerade gut. Wir haben erst kürzlich unsere Richtlinien für syndizierte Inhalte erweitert. link rel=canonical ist ein Signal, das uns bei der Kanonisierung als Hinweis hilft. Wenn deine Inhalte syndiziert werden und die syndizierten Versionen überhaupt nicht in der Suche erscheinen sollen, sollten die syndizierten Versionen auch ein noindex robots meta-Tag enthalten. Dadurch werden sie nicht mehr in der Google Suche angezeigt, Nutzer können aber weiterhin wie gewohnt auf die Seite zugreifen.

Ist es OK, wenn zwei Domains mit unterschiedlichen TLDs auf dasselbe Land für dieselben Keywords ausgerichtet sind?

Gary: Sagar fragt: Ist es OK, wenn zwei Domains mit unterschiedlichen TLDs auf dasselbe Land für dieselben Keywords ausgerichtet sind?

Mein Bauchgefühl sagt mir, dass zwei Domains mit wahrscheinlich denselben Inhalten für Nutzer vielleicht verwirrend sein könnten. Aus Sicht der Richtlinien könnte dies auch wie Manipulation der Suchergebnisse erscheinen. In den Spamrichtlinien von Google findest du weitere Informationen.

Haben Lighthouse-JavaScript-Warnungen Auswirkungen auf die Seitenbewertung oder das Ranking?

Martin: Arnd fragt: Haben JavaScript-Warnungen von Lighthouse für Bibliotheken mit bekannten Sicherheitslücken Auswirkungen auf die Seitenbewertung oder das Ranking?

Hallo Arnd, vielen Dank für die Frage. Nein. Das hat in der Regel keinen Einfluss auf das Ranking. Es ist jedoch keine gute Idee, Sicherheitswarnungen und -probleme zu ignorieren. Wir empfehlen dringend, diese so schnell wie möglich zu beheben.

Wie kann ich verhindern, dass der Googlebot einen bestimmten Bereich einer Webseite crawlt?

John: Sean fragt: Wie kann ich verhindern, dass der Googlebot einen bestimmten Bereich einer Webseite crawlt? Auf den Produktseiten gibt es einen Bereich mit Produkten, die auch gekauft wurden. Das sind oft kleine Add-ons, die kein großer Bestandteil unserer Website sind.

Kurz gesagt: Das Crawling eines bestimmten Bereichs einer HTML-Seite kann nicht blockiert werden. Allerdings gibt es zwei ähnliche Methoden: Du kannst das HTML-Attribut „data-nosnippet“ verwenden, damit Text nicht in einem Such-Snippet angezeigt wird, oder du kannst iframe oder JavaScript-verwenden, dessen Quelle durch die robots.txt-Datei blockiert wird. Die Verwendung von iframe oder einer JavaScript-Datei in einer robots.txt-Datei ist in der Regel keine gute Idee, da dies Probleme beim Crawlen und Indexieren verursachen kann, die sich nur schwer ermitteln und beheben lassen. Wenn es sich jedoch nur um Inhalte handelt, die auf deinen Seiten wiederverwendet werden, sollte das kein Problem sein. Das Crawling solcher Duplikate durch den Googlebot muss nicht blockiert werden.

Ich habe eine Sitemap eingereicht, sie wird aber nicht in den Suchergebnissen angezeigt. Warum?

Gary: Eine Person fragt: Ich habe eine Sitemap eingereicht, sie wird aber nicht in den Suchergebnissen angezeigt.

Ich gehe davon aus, dass du die URL meinst. In diesem Fall möchte ich noch einmal erwähnen, dass Sitemaps Suchmaschinen mitteilen können, wo sich deine Inhalte befinden. Mehr ist dazu eigentlich nicht zu sagen. Dadurch ist jedoch nicht garantiert, dass die von dir angegebenen URLs gecrawlt und vor allem indexiert werden. Beides hängt von der Qualität der Inhalte und ihrer relativen Beliebtheit im Internet ab.

Warum zeigen strukturierte Daten Fehler auf Google, aber nicht auf schema.org?

Martin: Corey fragt: Warum zeigen strukturierte Daten Fehler auf Google, aber nicht auf schema.org? In der Google Search Console werden Fehler für einen ungültigen enum-Wert im Feld "returnFees" angezeigt. Unser Schema.org-Test zeigt jedoch keinen Fehler an. Was würdest du empfehlen?

Vielen Dank für die Frage, Corey. schema.org ist eine offene und anbieterunabhängige Entität, die Datentypen und Attribute für strukturierte Daten definiert. Google als Anbieter hat jedoch möglicherweise bestimmte Anforderungen an einige Attribute und Typen, um die strukturierten Daten in Produktfunktionen wie unsere Rich-Suchergebnisse in der Google Suche verwenden zu können. Es reicht zwar für schema.org aus, einige Attribute auszuschließen oder einen bestimmten Wert für ein Attribut zu verwenden. Google oder andere Anbieter haben jedoch möglicherweise spezifischere Anforderungen für die Nutzung der strukturierten Daten, die du bereitstellst, um Funktionen und Produkte zu verbessern.

Hat die Einbindung von Sicherheitsheadern, z. B. für HSTS, einen Einfluss auf das Ranking?

John: Arnd fragt: Hat die Einbindung von Sicherheitsheadern, z. B. für HSTS, einen Einfluss auf das Ranking?

Nein, der HSTS-Header hat keine Auswirkungen auf die Suche. Dieser Header wird üblicherweise zusammen mit Weiterleitungen zu den HTTPS-Versionen verwendet, damit Nutzer direkt auf die HTTPS-Version zugreifen können. Google nutzt die sogenannte Kanonisierung, um die am besten geeignete Version einer Seite für das Crawling und die Indexierung auszuwählen. Header, wie sie für HSTS verwendet werden, werden nicht dazu berücksichtigt. Die Verwendung dieser Header ist jedoch natürlich toll für die Nutzenden.

Unternimmt Google Vergleiche zwischen der aktuellen und den vorherigen XML-Sitemap-Versionen?

Gary:Bill fragt: Vergleicht Google zwischen der aktuellen und der vorherigen Version der XML-Sitemap, um festzustellen, was es Neues gibt oder was von einer Website entfernt wurde?

Die absolute Antwort lautet: Ja, wir werden keine Sitemap erneut verarbeiten, die sich seit dem letzten Crawlen nicht geändert hat. Es handelt sich lediglich um eine Softwareoptimierung, um keine Ressourcen zu verschwenden. Sobald du etwas an deiner Sitemap änderst, sei es ein URL-Element oder lastmod, wird die Sitemap noch einmal geparst und in der Regel noch einmal verarbeitet. Das bedeutet nicht, dass die URLs sicher gecrawlt werden. Sie werden wie alle anderen URLs einer Qualitätsbewertung unterzogen. Wenn Sie eine URL aus der Sitemap entfernen (weil sie vielleicht nicht mehr existiert), bedeutet dies nicht automatisch, dass sie automatisch aus dem Index entfernt oder sogar für das Crawling priorisiert wird, damit sie früher gelöscht werden kann.

Was ist der Unterschied zwischen einer XML-Sitemap und HTML? Ich habe eine Fehlermeldung in der Search Console.

John: Maro Samy fragt: Was ist der Unterschied zwischen einer XML-Sitemap und HTML und wie lautet die Lösung für die Search Console, wenn Folgendes erscheint: „Deine Sitemap ist eine HTML-Seite. Bitte verwende stattdessen ein unterstütztes Format für Sitemaps.“?

Das ist leider der Fall, wenn du für die XML-Datei und für die HTML-Seite nahezu denselben Namen verwendest. Eine HTML-Sitemap kann für Nutzer hilfreich sein und ist eher eine Sitemap auf einer höheren Ebene. Eine XML-Sitemap ist nur für Crawler gedacht. Sie ist eine Datei für Robots. Meiner Meinung nach ist eine HTML-Sitemap oft ein Zeichen dafür, dass die Navigation auf einer Website zu verwirrend ist. Daher würde ich versuchen, dieses Problem zu beheben, anstatt eine Sitemap-Seite zu erstellen.

Wie behandelt Google strukturierte Daten mit Parsing-Fehlern?

Gary: Animesh fragt: Wie verarbeitet Google strukturierte Daten mit Parsing-Fehlern?

Gar nicht. Wenn einige strukturierte Daten nicht geparst werden, können wir die darin enthaltenen Informationen nicht extrahieren. Daher werden sie ignoriert.

Sind Zahlen in der URL für SEO schlecht? Sollten sie nicht in die URL aufgenommen werden?

John: Sind Zahlen in der URL für SEO schlecht? Sollten sie nicht in die URL aufgenommen werden?

Nein. Zahlen in URLs sind kein Problem. Du kannst Zahlen, Buchstaben, nicht lateinische Buchstaben und sogar Unicode-Symbole verwenden. Das Einzige, was ich in URLs vermeiden würde, sind temporäre IDs. Sie ändern sich bei jedem Besuch einer Seite, weil hierdurch das Crawling sehr schwierig und verwirrend wird.

Warum wird meine Website-URL blockiert?

Gary: Claudio fragt: „Warum wird meine Website-URL blockiert?

Sie wird nicht blockiert, sie erscheint nur nicht im Ranking. In unserem Startleitfaden zur Suchmaschinenoptimierung (SEO) findest du Informationen dazu, was du zuerst tun musst. Außerdem erhältst du weitere Tipps von anderen seriösen SEO-Websites und Anbietern wie Moz und Aleyda Solis.

„Index Bloat“: Wirkt sich das tatsächlich auf das Crawling und die Indexierung von Google aus?

John: „Index Bloat“: Wirkt sich das tatsächlich auf das Crawling und die Indexierung von Google aus?

Ich kenne das Konzept von „Index Bloat“ bei Google nicht. Die Anzahl der pro Website indexierten Seiten wird von unseren Systemen nicht künstlich begrenzt. Die Seiten, die du zur Indexierung bereitstellst, sollten nützliche Seiten sein, aber das ist unabhängig von der Anzahl der Seiten auf deiner Website.

Wie kann ich zuverlässig und dauerhaft verhindern, dass der Googlebot sich meiner Website nähert?

Gary: Jemand fragt: Wie kann ich zuverlässig und dauerhaft verhindern, dass der Googlebot sich meiner Website nähert? Nicht nur für ein paar Monate, sondern für immer.

Die einfachste Methode ist robots.txt: Wenn du disallow: / für den Googlebot-User-Agent hinzufügst, ignoriert der Googlebot deine Website, solange diese Regel gilt. Wenn du auch den Netzwerkzugriff blockieren möchtest, musst du Firewallregeln erstellen, durch die für unsere IP-Bereiche eine Deny-Regel gilt. Eine Liste unserer IP-Adressen findest du in unserer Dokumentation zum Überprüfen des Googlebots.

Kann ein SEO-Unternehmen das Logo „Von Google genehmigt“ erhalten?

John: Michael fragt: Kann ein SEO-Unternehmen das Logo „Von Google genehmigt“ erhalten?

Ich kenne keine SEO-Zertifizierung von Google. Es gibt Zertifizierungen für bestimmte Produkte, z. B. für Google Ads, aber ich kenne keine für SEO. Ich schlage vor, bei offiziellen Zertifizierungen direkt an der Quelle nachzufragen und nicht bei anderen Personen.

Können sich mehrere Navigationsmenüs negativ auf die SEO-Leistung auswirken?

Gary: Anonym fragt: Können sich mehrere Navigationsmenüs negativ auf die SEO-Leistung auswirken? Ein Hauptmenü mit den wichtigsten Kategorien der Website und „sekundären“ Bereichen, um die Kategorien für Markenerweiterungen zu optimieren.

Es ist sehr unwahrscheinlich, dass mehrere Navigationsmenüs die SEO-Leistung deiner Website beeinträchtigen.

Ich habe versucht, HTML- und ASPX-Seiten zu indexieren, aber nur wenige HTML-Seiten wurden indexiert. Was kann ich tun?

John: Ich habe versucht, HTML- und ASPX-Seiten zu indexieren, aber nur wenige HTML-Seiten wurden indexiert. Ich brauche Unterstützung.

Bei uns spielen diese Dateitypen keine Rolle. URLs mit diesen Endungen können normale HTML-Seiten sein, die von uns indexiert werden können. Das Ausblenden der Endung hat keine Auswirkungen auf die Systeme von Google. Antworten auf allgemeine Fragen zum Crawlen und Indexieren erhältst du im Hilfeforum. Dort hilft man dir gerne weiter.

Ich sehe zwei Ergebnisse aus derselben Domain, aber unterschiedlichen Webseiten. Das zweite ist eingerückt. Warum?

Gary: Shin fragt: Ich sehe zwei Ergebnisse aus derselben Domain, aber unterschiedlichen Webseiten. Das zweite ist eingerückt. Was ist das?

Diese werden als Hostgruppen bezeichnet. Sie können sie zwar nicht wirklich durch Markup beeinflussen, aber es ist ein Indikator dafür, dass Sie mehr als 1 Seite haben, die ein gutes Ranking für eine bestimmte Suchanfrage erzielen kann. Du solltest diese beiden Seiten nach Möglichkeit zusammenfassen. Weitere Informationen zu Hostgruppen findest du in der Galerie für visuelle Elemente.

Ist ein gefälschter Googlebot zulässig? Die offizielle URL ist angegeben, aber mit einer anderen IP-Adresse.

John: Arnd fragt: Ist ein gefälschter Googlebot erlaubt? Die offizielle URL ist angegeben, aber mit einer anderen IP-Adresse.

Leider kann jede beliebige Person User-Agent-Namen angeben. Es kommt vor, dass Skripts einen Googlebot-User-Agent-Namen verwenden, um den Eindruck zu erwecken, er sei legitim. Wir veröffentlichen die vom Googlebot verwendeten IP-Bereiche sowie eine Möglichkeit zur Prüfung, ob Anfragen legitim sind, in unserer Dokumentation. In deinem speziellen Fall gehört die IP-Adresse zu Hetzner Online, einem Hostanbieter in Deutschland. Wenn du solche Anfragen erhältst, wendest du dich am besten an das entsprechende Team, das für Missbrauch zuständig ist.

Gibt es eine Möglichkeit, IP-Adressen anstelle von Domainnamen für ungültig zu erklären?

Gary:Muhammad fragt: Gibt es eine Möglichkeit, IP-Adressen anstelle von Domainnamen für ungültig zu erklären?

Nein.

Wozu wird NOODP in Blogger verwendet?

John: Wozu wird NOODP in Blogger verwendet?

Das gehört der Vergangenheit an. Google hat dieses robots-meta-Tag schon seit Jahren nicht mehr verwendet. Es geht auf DMOZ (Open Directory Project) zurück, in dem die Websites mit einer kurzen Beschreibung aufgeführt wurden. Suchmaschinen wurden durch das meta-Tag angewiesen, diese Beschreibung zu ignorieren. Das Open Directory Project oder ODP ist nicht mehr vorhanden und dieses meta-Tag hat keine Auswirkungen. Es verursacht keine Probleme, daher kann es ignoriert werden.

Bedeutet „Hauptinhalt“, dass das Video unbedingt das erste Element auf der Seite sein muss?

Gary: Frederick fragt: Seit dem 13. April muss ein Video der Hauptinhalt der Seite sein, wenn in SERPs ein Thumbnail angezeigt werden soll. Bedeutet „Hauptinhalt“, dass das Video unbedingt das erste Element auf der Seite sein muss?

Nein. Nutzer gelangen auf deine Seite und müssen aktiv nach dem Video suchen, anstatt es sofort zu sehen. Das ist ziemlich verwirrend und darum möchten wir, dass Videos der Hauptinhalt, also sofort sichtbar, sind. Auf den großen Videowebsites wie Vimeo oder YouTube kannst du dir einen Eindruck davon verschaffen, wonach unsere Algorithmen suchen.