Google-SEO-Sprechstunde vom Juni 2023
Dies ist das Transkript der Google-SEO-Sprechstunde vom Juni 2023. Wenn du websitespezifische Hilfe suchst, empfehlen wir dir, deine Frage im Google Search Central-Hilfeforum zu posten.
Unsere syndizierte Version wird in Google Discover angezeigt, obwohl kanonische Links verwendet werden. Warum?
John: Beth fragt: Wir lassen die Syndikation unserer Inhalte zu. Häufig wird die syndizierte Version jedoch trotz der Verwendung kanonischer Links in Google Discover angezeigt. Wie lässt sich das vermeiden?
Die Frage passt gerade gut. Wir haben erst kürzlich unsere Richtlinien für syndizierte Inhalte erweitert. link rel=canonical
ist ein Signal, das uns bei der Kanonisierung als Hinweis hilft. Wenn deine Inhalte syndiziert werden und die syndizierten Versionen überhaupt nicht in der Suche erscheinen sollen, sollten die syndizierten Versionen auch ein noindex
robots meta
-Tag enthalten. Dadurch wird verhindert, dass sie in der Google Suche erscheinen. Nutzer können jedoch weiterhin auf die Seite zugreifen.
Ist es OK, wenn zwei Domains mit unterschiedlichen TLDs auf dasselbe Land für dieselben Keywords ausgerichtet sind?
Gary: Sagar fragt: Ist es OK, wenn zwei Domains mit unterschiedlichen TLDs auf dasselbe Land für dieselben Keywords ausgerichtet sind?
Mein Bauchgefühl sagt mir, dass zwei Domains mit wahrscheinlich denselben Inhalten für Nutzer vielleicht verwirrend sein könnten. Aus Richtliniensicht kann dies auch wie eine Manipulation von Suchergebnissen erscheinen. Weitere Informationen dazu findest du in den Spamrichtlinien von Google.
Haben Lighthouse-JavaScript-Warnungen Auswirkungen auf die Seitenbewertung oder das Ranking?
Martin: Arnd möchte wissen, ob die Lighthouse-JavaScript-Warnungen für Bibliotheken mit bekannten Sicherheitslücken die Seitenbewertung oder das Ranking beeinflussen.
Hallo Arnd, vielen Dank für deine Frage. Nein. Im Allgemeinen hat dies keine Auswirkungen auf das Ranking. Sicherheitswarnungen und -probleme solltest du allerdings nicht ignorieren. Wir empfehlen dringend, diese so schnell wie möglich zu beheben.
Wie kann ich verhindern, dass der Googlebot einen bestimmten Bereich einer Webseite crawlt?
John: Sean fragt: Wie kann ich verhindern, dass der Googlebot einen bestimmten Bereich einer Webseite crawlt? Auf den Produktseiten gibt es einen Bereich mit Produkten, die auch gekauft wurden. Das sind oft kleine Add-ons, die kein großer Bestandteil unserer Website sind.
Kurz gesagt: Das Crawling eines bestimmten Bereichs einer HTML-Seite kann nicht blockiert werden. Allerdings gibt es zwei ähnliche Methoden: Du kannst das HTML-Attribut „data-nosnippet
“ verwenden, damit Text nicht in einem Such-Snippet angezeigt wird, oder du kannst iframe
oder JavaScript-verwenden, dessen Quelle durch die robots.txt-Datei blockiert wird. Die Verwendung von iframe
oder einer JavaScript-Datei in einer robots.txt-Datei ist in der Regel keine gute Idee, da dies Probleme beim Crawlen und Indexieren verursachen kann, die sich nur schwer ermitteln und beheben lassen. Wenn es sich jedoch nur um Inhalte handelt, die auf deinen Seiten wiederverwendet werden, sollte das kein Problem sein. Das Crawling solcher Duplikate durch den Googlebot muss nicht blockiert werden.
Ich habe eine Sitemap eingereicht, sie wird aber nicht in den Suchergebnissen angezeigt. Warum?
Gary: Eine Person fragt: Ich habe eine Sitemap eingereicht, sie wird aber nicht in den Suchergebnissen angezeigt.
Ich gehe davon aus, dass du die URL meinst. In diesem Fall möchte ich noch einmal erwähnen, dass Sitemaps Suchmaschinen mitteilen können, wo sich deine Inhalte befinden. Mehr ist dazu eigentlich nicht zu sagen. Dadurch ist jedoch nicht garantiert, dass die von dir angegebenen URLs gecrawlt und vor allem indexiert werden. Beide hängen von der Qualität der Inhalte und ihrer relativen Beliebtheit im Internet ab.
Warum zeigen strukturierte Daten Fehler auf Google, aber nicht auf schema.org?
Martin: Corey fragt: Warum zeigen strukturierte Daten Fehler auf Google, aber nicht auf schema.org? In der Google Search Console werden Fehler für einen ungültigen „enum“-Wert im Feld „returnFees“ angezeigt, aber unser Schema.org-Test gibt keinen Fehler aus. Was würdest du empfehlen?
Vielen Dank für die Frage, Corey. schema.org ist eine offene und anbieterunabhängige Entität, die Datentypen und Attribute für strukturierte Daten definiert. Google als Anbieter hat jedoch möglicherweise bestimmte Anforderungen an einige Attribute und Typen, um die strukturierten Daten in Produktfunktionen wie unsere Rich-Suchergebnisse in der Google Suche verwenden zu können. Es reicht zwar für schema.org aus, einige Attribute auszuschließen oder einen bestimmten Wert für ein Attribut zu verwenden. Google oder andere Anbieter haben jedoch möglicherweise spezifischere Anforderungen für die Nutzung der strukturierten Daten, die du bereitstellst, um Funktionen und Produkte zu verbessern.
Hat die Einbindung von Sicherheitsheadern, z. B. für HSTS, einen Einfluss auf das Ranking?
John: Arnd fragt: Hat die Einbindung von Sicherheitsheadern, z. B. für HSTS, einen Einfluss auf das Ranking?
Nein, der HSTS-Header hat keine Auswirkungen auf die Suche. Über diesen Header werden Nutzer angewiesen, direkt auf die HTTPS-Version zuzugreifen. Er wird häufig zusammen mit Weiterleitungen zu den HTTPS-Versionen verwendet. Google nutzt einen Prozess namens Kanonisierung, um die am besten geeignete Version einer Seite für das Crawlen und Indexieren zu finden. Google nutzt keine Header wie die für HSTS. Die Verwendung dieser Header ist jedoch für die Nutzer natürlich von Vorteil.
Unternimmt Google Vergleiche zwischen der aktuellen und den vorherigen XML-Sitemap-Versionen?
Gary: Bill möchte wissen, ob Google die aktuellen und die vorherigen XML-Sitemap-Versionen vergleicht, um herauszufinden, was es Neues gibt und was von einer Website entfernt wurde.
Die absolute Antwort ist: Ja, wir werden eine Sitemap, die sich seit dem letzten Crawlen nicht geändert hat, nicht noch einmal verarbeiten. Es handelt sich jedoch nur um eine Softwareoptimierung, die keine Ressourcen verschwendet. Sobald du etwas an deiner Sitemap änderst, sei es ein URL-Element oder lastmod, wird die Sitemap noch einmal geparst und in der Regel noch einmal verarbeitet. Das bedeutet nicht, dass die URLs mit Sicherheit gecrawlt werden, sie werden wie alle anderen URLs einer Qualitätsbewertung unterzogen. Wenn du eine URL aus der Sitemap entfernst, weil sie vielleicht nicht mehr existiert, bedeutet das nicht, dass sie automatisch aus dem Index entfernt oder sogar für das Crawling priorisiert wird, damit sie früher entfernt werden kann.
Was ist der Unterschied zwischen einer XML-Sitemap und HTML? Ich erhalte eine Fehlermeldung in der Search Console.
John: Maro Samy fragt: Was ist der Unterschied zwischen einer XML-Sitemap und HTML und wie lautet die Lösung für die Search Console, wenn Folgendes erscheint: „Deine Sitemap ist eine HTML-Seite. Bitte verwende stattdessen ein unterstütztes Format für Sitemaps.“?
Das ist leider der Fall, wenn du für die XML-Datei und für die HTML-Seite nahezu denselben Namen verwendest. Eine HTML-Sitemap kann für Nutzer hilfreich sein und ist eher eine Sitemap auf einer höheren Ebene. Eine XML-Sitemap wurde nur für Crawler erstellt. Sie ist eine Datei für Robots. Meiner Meinung nach ist eine HTML-Sitemap oft ein Zeichen dafür, dass die Navigation auf einer Website zu verwirrend ist. Daher würde ich versuchen, dieses Problem zu beheben, anstatt eine Sitemap-Seite zu erstellen.
Wie verarbeitet Google strukturierte Daten mit Parsing-Fehlern?
Gary: Animesh fragt: Wie verarbeitet Google strukturierte Daten mit Parsing-Fehlern?
Gar nicht. Wenn einige strukturierte Daten nicht geparst werden, können wir die darin enthaltenen Informationen nicht extrahieren. Daher werden sie ignoriert.
Sind Zahlen in der URL für SEO schlecht? Sollten sie nicht in die URL aufgenommen werden?
John: Sind Zahlen in der URL für SEO schlecht? Sollten sie nicht in die URL aufgenommen werden?
Nein. Zahlen in URLs sind kein Problem. Du kannst Zahlen, Buchstaben, nicht lateinische Buchstaben und sogar Unicode-Symbole verwenden. Das Einzige, was ich in URLs vermeiden würde, sind temporäre IDs. Sie ändern sich bei jedem Besuch einer Seite, weil hierdurch das Crawling sehr schwierig und verwirrend wird.
Warum wird meine Website-URL blockiert?
Gary: Claudio fragt: „Warum wird meine Website-URL blockiert?
Sie wird nicht blockiert, sie erscheint nur nicht im Ranking. In unserem Startleitfaden zur Suchmaschinenoptimierung (SEO) findest du Informationen dazu, was du zuerst tun musst. Außerdem erhältst du weitere Tipps von anderen seriösen SEO-Websites und Anbietern wie Moz und Aleyda Solis.
„Index Bloat“: Wirkt sich das tatsächlich auf das Crawling und die Indexierung von Google aus?
John: „Index Bloat“: Wirkt sich das tatsächlich auf das Crawling und die Indexierung von Google aus?
Ich kenne das Konzept von „Index Bloat“ bei Google nicht. Unsere Systeme begrenzen die Anzahl der indexierten Seiten pro Website nicht künstlich. Die Seiten, die du zur Indexierung bereitstellst, sollten nützliche Seiten sein, aber das ist unabhängig von der Anzahl der Seiten auf deiner Website.
Wie kann ich zuverlässig und dauerhaft verhindern, dass der Googlebot sich meiner Website nähert?
Gary: Jemand fragt: Wie kann ich zuverlässig und dauerhaft verhindern, dass der Googlebot sich meiner Website nähert? Nicht nur für ein paar Monate, sondern für immer.
Die einfachste Methode ist robots.txt: Wenn du disallow: /
für den Googlebot
-User-Agent hinzufügst, ignoriert der Googlebot deine Website, solange diese Regel gilt. Wenn du auch den Netzwerkzugriff blockieren möchtest, musst du Firewallregeln erstellen, durch die für unsere IP-Bereiche eine Deny-Regel gilt. Eine Liste unserer IP-Adressen findest du in unserer Dokumentation zum Überprüfen des Googlebots.
Kann ein SEO-Unternehmen das Logo „Von Google genehmigt“ erhalten?
John: Michael fragt: Kann ein SEO-Unternehmen das Logo „Von Google genehmigt“ erhalten?
Ich kenne keine Google-SEO-Zertifizierung. Es gibt Zertifizierungen für bestimmte Produkte, z. B. für Google Ads, aber ich kenne keine für SEO. Ich schlage vor, bei offiziellen Zertifizierungen direkt an der Quelle nachzufragen und nicht bei anderen Personen.
Können sich mehrere Navigationsmenüs negativ auf die SEO-Leistung auswirken?
Gary: Anonym fragt: Können sich mehrere Navigationsmenüs negativ auf die SEO-Leistung auswirken? Ein Hauptmenü mit den wichtigsten Kategorien der Website und „sekundären“ Bereichen, um die Kategorien für Markenerweiterungen zu optimieren.
Es ist sehr unwahrscheinlich, dass mehrere Navigationsmenüs die SEO-Leistung deiner Website beeinträchtigen.
Ich habe versucht, HTML- und ASPX-Seiten zu indexieren, aber nur wenige HTML-Seiten wurden indexiert. Ich brauche Unterstützung.
John: Ich habe versucht, HTML- und ASPX-Seiten zu indexieren, aber nur wenige HTML-Seiten wurden indexiert. Ich brauche Unterstützung.
Bei uns spielen diese Dateitypen keine Rolle. URLs mit diesen Endungen können normale HTML-Seiten sein und wir können sie indexieren. Das Ausblenden der Endung hat keine Auswirkungen auf die Systeme von Google. Antworten auf allgemeine Fragen zum Crawlen und Indexieren erhältst du im Hilfeforum. Dort hilft man dir gerne weiter.
Ich sehe zwei Ergebnisse aus derselben Domain, aber unterschiedlichen Webseiten. Das zweite ist eingerückt. Warum?
Gary: Shin fragt: Ich sehe zwei Ergebnisse aus derselben Domain, aber unterschiedlichen Webseiten. Das zweite ist eingerückt. Was ist das?
Sie werden als Hostgruppen bezeichnet. Man kann sie nicht mithilfe von Markup beeinflussen. Es ist aber ein Zeichen dafür, dass du mehr als eine Seite hast, die bei einer bestimmten Suchanfrage gut abschneidet. Du solltest diese beiden Seiten nach Möglichkeit zusammenfassen. Weitere Informationen zu Hostgruppen findest du in der Galerie für visuelle Elemente.
Ist ein gefälschter Googlebot erlaubt? Die offizielle URL ist angegeben, aber mit einer anderen IP-Adresse.
John: Arnd fragt: Ist ein gefälschter Googlebot erlaubt? Die offizielle URL ist angegeben, aber mit einer anderen IP-Adresse.
Leider kann jede beliebige Person User-Agent-Namen angeben. Es kommt vor, dass Skripts einen Googlebot-User-Agent-Namen verwenden, um den Eindruck zu erwecken, er sei legitim. Wir veröffentlichen die vom Googlebot verwendeten IP-Bereiche sowie eine Möglichkeit zur Prüfung, ob Anfragen legitim sind, in unserer Dokumentation. In deinem speziellen Fall gehört die IP-Adresse zu Hetzner Online, einem Hostanbieter in Deutschland. Wenn du solche Anfragen erhältst, wendest du dich am besten an das entsprechende Team, das für Missbrauch zuständig ist.
Gibt es eine Möglichkeit, IP-Adressen anstelle von Domainnamen für ungültig zu erklären?
Gary: Muhammad möchte wissen, ob IP-Adressen anstelle von Domainnamen für ungültig erklärt werden können.
Nein.
Wozu wird NOODP in Blogger verwendet?
John: Wozu wird NOODP in Blogger verwendet?
Das gehört der Vergangenheit an. Google hat dieses robots-meta
-Tag schon seit Jahren nicht mehr verwendet. Es geht auf DMOZ (Open Directory Project) zurück, in dem die Websites mit einer kurzen Beschreibung aufgeführt wurden. Suchmaschinen wurden durch das meta
-Tag angewiesen, diese Beschreibung zu ignorieren. Das Open Directory Project oder ODP ist nicht mehr vorhanden und dieses meta
-Tag hat keine Auswirkungen. Es verursacht keine Probleme, daher kann es ignoriert werden.
Bedeutet „Hauptinhalt“, dass das Video unbedingt das erste Element auf der Seite sein muss?
Gary: Frederick fragt: Seit dem 13. April muss ein Video der Hauptinhalt der Seite sein, wenn in SERPs ein Thumbnail angezeigt werden soll. Bedeutet „Hauptinhalt“, dass das Video unbedingt das erste Element auf der Seite sein muss?
Nein. Nutzer gelangen auf deine Seite und müssen aktiv nach dem Video suchen, anstatt es sofort zu sehen. Das ist ziemlich verwirrend und darum möchten wir, dass Videos der Hauptinhalt, also sofort sichtbar, sind. Auf den großen Videowebsites wie Vimeo oder YouTube kannst du dir einen Eindruck davon verschaffen, wonach unsere Algorithmen suchen.