Wir sind jetzt auf LinkedIn:
Folgen Sie uns auf LinkedIn, um Neuigkeiten und Ressourcen der Google Suche dazu zu erhalten, wie Sie Ihre Website auffindbar machen können.
Verbesserungen der Indexabdeckung
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Montag, 11. Januar 2021
Schon seit der Anfangszeit von Search Console ist es eines der Hauptziele, den Nutzern dabei zu helfen, zu verstehen, wie Google ihre Websites crawlt und indexiert. Die Einführung der neuen Search Console brachte außerdem den Bericht zur Indexabdeckung mit sich, der den Indexierungsstatus aller URLs enthält, die Google in eurer Property aufgerufen hat oder versucht hat aufzurufen.
Aufgrund des Feedbacks von der Community führen wir heute wesentliche Verbesserungen an diesem Bericht ein. Damit könnt ihr besser auf Probleme reagieren, die Google am Crawlen und Indexieren eurer Seiten hindern. Ziel dieser Änderungen ist es, bestehende Probleme genauer zu korrelieren und zu beheben. Die Liste der Änderungen umfasst Folgendes:
- Der allgemeine Problemtyp „Crawling-Anomalie“ wurde entfernt: Alle Crawling-Fehler sollten nun einem Problem mit einer präziseren Lösung zugeordnet werden.
- Seiten, die zwar eingereicht, jedoch von robots.txt. blockiert und indexiert wurden, werden nun als „Indexiert aber blockiert“ (Warnung) dargestellt, anstatt als „Eingereicht, aber blockiert“ (Fehler).
- Wir haben ein neues Problem hinzugefügt: „Ohne Inhalt indexiert“ (Warnung).
- Die Berichte zu
Soft 404
-Fehlern sind jetzt genauer.
Die obigen Änderungen sind jetzt im Bericht zur Indexabdeckung enthalten, sodass ihr möglicherweise neue Arten von Problemen oder Änderungen bei der Anzahl der Probleme seht. Wir hoffen, dass ihr durch diese Änderung besser versteht, wie wir eure Website crawlen und indexieren.
Bitte teilt uns euer Feedback zum Bericht im Hilfeforum von Google Search Central oder über Twitter mit.
Post von Tal Yadid, Software Engineer, Search Console
Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.
[null,null,[],[[["\u003cp\u003eGoogle Search Console's Index Coverage report has been significantly improved to provide website owners with more accurate and detailed information about indexing issues.\u003c/p\u003e\n"],["\u003cp\u003eThe update includes the removal of the generic "crawl anomaly" issue, refined categorization of indexing errors, and the addition of a new "indexed without content" warning.\u003c/p\u003e\n"],["\u003cp\u003eThese changes aim to make it easier for users to identify and resolve issues that prevent Google from crawling and indexing their web pages, ultimately improving their site's visibility in search results.\u003c/p\u003e\n"],["\u003cp\u003eGoogle encourages users to provide feedback on the updated report through the Search Central Help Community or Twitter.\u003c/p\u003e\n"]]],["The Index Coverage report in Google Search Console has been updated to provide more accurate information on website indexing. Changes include eliminating the \"crawl anomaly\" issue, replacing \"submitted but blocked\" with \"indexed but blocked\" for robots.txt conflicts, and adding a new \"indexed without content\" warning. Soft 404 reporting is now more precise, offering users a more detailed understanding of crawling and indexing issues. Feedback on these improvements is encouraged.\n"],null,["# Index Coverage Data Improvements\n\nMonday, January 11, 2021\n\n\nHelping people understand how Google crawls and indexes their sites has been one of the main objectives of Search Console since its\n[early days](/search/blog/2005/11/more-stats). When we launched the\n[new Search Console](/search/blog/2018/01/introducing-new-search-console), we also introduced the\n[Index Coverage report](https://support.google.com/webmasters/answer/7440203), which shows the indexing state of URLs\nthat Google has visited, or tried to visit, in your property.\n\n\nBased on the feedback we got from the community, today we are rolling out significant improvements to this report so you're better informed on issues\nthat might prevent Google from crawling and indexing your pages. The change is focused on providing a more accurate state to existing issues,\nwhich should help you solve them more easily. The list of changes include:\n\n- Removal of the generic \"crawl anomaly\" issue type - all crawls errors should now be mapped to an issue with a finer resolution.\n- Pages that were submitted but blocked by robots.txt and got indexed are now reported as \"indexed but blocked\" (warning) instead of \"submitted but blocked\" (error)\n- Addition of a new issue: \"[indexed without content](https://support.google.com/webmasters/answer/7440203#indexed_no_content)\" (warning)\n- `Soft 404` reporting is now more accurate\n\n\nThe changes above are now reflected in the index coverage report so you may see new types of issues or changes in counts of issues. We hope that\nthis change will help you better understand how [we crawl and index](https://www.google.com/search/howsearchworks/crawling-indexing/) your site.\n\n\nPlease share your feedback about the report through the [Search Central Help Community](https://support.google.com/webmasters/community)\nor via [Twitter](https://twitter.com/googlesearchc).\n\nPosted by Tal Yadid, Software Engineer, Search Console"]]