Montag, 11. Januar 2021
Schon seit der Anfangszeit von Search Console ist es eines der Hauptziele, den Nutzern dabei zu helfen, zu verstehen, wie Google ihre Websites crawlt und indexiert. Die Einführung der neuen Search Console brachte außerdem den Bericht zur Indexabdeckung mit sich, der den Indexierungsstatus aller URLs enthält, die Google in eurer Property aufgerufen hat oder versucht hat aufzurufen.
Aufgrund des Feedbacks von der Community führen wir heute wesentliche Verbesserungen an diesem Bericht ein. Damit könnt ihr besser auf Probleme reagieren, die Google am Crawlen und Indexieren eurer Seiten hindern. Ziel dieser Änderungen ist es, bestehende Probleme genauer zu korrelieren und zu beheben. Die Liste der Änderungen umfasst Folgendes:
- Der allgemeine Problemtyp „Crawling-Anomalie“ wurde entfernt: Alle Crawling-Fehler sollten nun einem Problem mit einer präziseren Lösung zugeordnet werden.
- Seiten, die zwar eingereicht, jedoch von robots.txt. blockiert und indexiert wurden, werden nun als „Indexiert aber blockiert“ (Warnung) dargestellt, anstatt als „Eingereicht, aber blockiert“ (Fehler).
- Wir haben ein neues Problem hinzugefügt: „Ohne Inhalt indexiert“ (Warnung).
- Die Berichte zu
Soft 404
-Fehlern sind jetzt genauer.
Die obigen Änderungen sind jetzt im Bericht zur Indexabdeckung enthalten, sodass ihr möglicherweise neue Arten von Problemen oder Änderungen bei der Anzahl der Probleme seht. Wir hoffen, dass ihr durch diese Änderung besser versteht, wie wir eure Website crawlen und indexieren.
Bitte teilt uns euer Feedback zum Bericht im Hilfeforum von Google Search Central oder über Twitter mit.