Ahora estamos en LinkedIn: para obtener noticias y recursos de la Búsqueda de Google sobre cómo hacer que tu sitio sea visible,
síguenos en LinkedIn.
Mejoras en los datos del informe de cobertura del índice
Organízate con las colecciones
Guarda y clasifica el contenido según tus preferencias.
Lunes, 11 de enero del 2021
Ya desde sus inicios, uno de los objetivos principales de Search Console es ayudar a las personas a saber cómo rastrea e indexa Google sus sitios. Cuando lanzamos la nueva versión de Search Console, también presentamos el informe de cobertura de indexación, en el que puedes ver el estado de indexación de las URL de tu propiedad que Google ha visitado o intentado visitar.
Hoy anunciamos que, a partir de los comentarios que nos ha hecho llegar la comunidad, hemos mejorado significativamente este informe para que proporcione más datos sobre los problemas que pueden impedir que Google rastree e indexe tus páginas. Ahora los problemas detectados se explican de una manera más precisa para que puedas resolverlos más fácilmente. Estos son algunos de los cambios:
- Se ha retirado el tipo de problema genérico "Anomalía en el rastreo". Ahora todos los errores de rastreo deberían estar asignados a un problema que tenga una solución más concreta.
- Las páginas que se han enviado y que se han indexado a pesar de estar bloqueadas por un archivo robots.txt ahora aparecen marcadas con la advertencia "Se ha indexado aunque un archivo robots.txt la ha bloqueado". Antes se marcaban con el error "robots.txt ha bloqueado la URL enviada".
- Se ha añadido la nueva advertencia "La página se ha indexado sin contenido".
- Los informes de
Soft 404
ahora son más precisos.
Esos cambios ya están implementados en el informe de cobertura de indexación, por lo que quizá observes nuevos tipos de errores o advertencias, o notes cambios en el recuento de problemas. Esperamos que así puedas entender mejor cómo rastreamos e indexamos tu sitio.
Si tienes comentarios sobre el informe, no dudes en compartirlos en la comunidad de ayuda del Centro de la Búsqueda o por Twitter.
Publicado por Tal Yadid, ingeniero de software de Search Console
A menos que se indique lo contrario, el contenido de esta página está sujeto a la licencia Reconocimiento 4.0 de Creative Commons y las muestras de código están sujetas a la licencia Apache 2.0. Para obtener más información, consulta las políticas del sitio web de Google Developers. Java es una marca registrada de Oracle o sus afiliados.
[null,null,[],[[["\u003cp\u003eGoogle Search Console's Index Coverage report has been significantly improved to provide website owners with more accurate and detailed information about indexing issues.\u003c/p\u003e\n"],["\u003cp\u003eThe update includes the removal of the generic "crawl anomaly" issue, refined categorization of indexing errors, and the addition of a new "indexed without content" warning.\u003c/p\u003e\n"],["\u003cp\u003eThese changes aim to make it easier for users to identify and resolve issues that prevent Google from crawling and indexing their web pages, ultimately improving their site's visibility in search results.\u003c/p\u003e\n"],["\u003cp\u003eGoogle encourages users to provide feedback on the updated report through the Search Central Help Community or Twitter.\u003c/p\u003e\n"]]],["The Index Coverage report in Google Search Console has been updated to provide more accurate information on website indexing. Changes include eliminating the \"crawl anomaly\" issue, replacing \"submitted but blocked\" with \"indexed but blocked\" for robots.txt conflicts, and adding a new \"indexed without content\" warning. Soft 404 reporting is now more precise, offering users a more detailed understanding of crawling and indexing issues. Feedback on these improvements is encouraged.\n"],null,["# Index Coverage Data Improvements\n\nMonday, January 11, 2021\n\n\nHelping people understand how Google crawls and indexes their sites has been one of the main objectives of Search Console since its\n[early days](/search/blog/2005/11/more-stats). When we launched the\n[new Search Console](/search/blog/2018/01/introducing-new-search-console), we also introduced the\n[Index Coverage report](https://support.google.com/webmasters/answer/7440203), which shows the indexing state of URLs\nthat Google has visited, or tried to visit, in your property.\n\n\nBased on the feedback we got from the community, today we are rolling out significant improvements to this report so you're better informed on issues\nthat might prevent Google from crawling and indexing your pages. The change is focused on providing a more accurate state to existing issues,\nwhich should help you solve them more easily. The list of changes include:\n\n- Removal of the generic \"crawl anomaly\" issue type - all crawls errors should now be mapped to an issue with a finer resolution.\n- Pages that were submitted but blocked by robots.txt and got indexed are now reported as \"indexed but blocked\" (warning) instead of \"submitted but blocked\" (error)\n- Addition of a new issue: \"[indexed without content](https://support.google.com/webmasters/answer/7440203#indexed_no_content)\" (warning)\n- `Soft 404` reporting is now more accurate\n\n\nThe changes above are now reflected in the index coverage report so you may see new types of issues or changes in counts of issues. We hope that\nthis change will help you better understand how [we crawl and index](https://www.google.com/search/howsearchworks/crawling-indexing/) your site.\n\n\nPlease share your feedback about the report through the [Search Central Help Community](https://support.google.com/webmasters/community)\nor via [Twitter](https://twitter.com/googlesearchc).\n\nPosted by Tal Yadid, Software Engineer, Search Console"]]