Horas de consulta de SEO de Google de septiembre del 2023
Esta es la transcripción de la edición de septiembre del 2023 de las horas de consulta de SEO de Google. Si necesitas ayuda específica sobre un sitio, te recomendamos que publiques tu duda en la comunidad de ayuda del Centro de la Búsqueda de Google.
¿Google indexa erróneamente la versión con www de mi sitio web?
John: Wan afirma lo siguiente: "Google indexa erróneamente la versión con www de mi sitio web. Se supone que la página correcta debe ser HTTP y el nombre de dominio debe ser .my, sin www".
Hola, Wan. He revisado tus páginas y parece que tu servidor redirige automáticamente de la versión sin www a la versión con www, y establece el elemento link rel canonical correctamente. A primera vista, si utilizas Chrome, puede parecer que no tiene www delante. Sin embargo, si haces clic dos veces en la URL de la parte superior del navegador, se mostrará la URL completa, con www. En la práctica, esto no supone ningún problema, ya que tanto la versión con "www" como la versión sin "www" de un sitio web son totalmente aceptables en la Búsqueda de Google. ¡Cuántas www!
¿Por qué los datos filtrados son superiores a los datos generales de Search Console?
Gary: Ornella se pregunta: "¿Por qué los datos filtrados son superiores a los datos generales de Search Console? No tiene ningún sentido".
En primer lugar, me encanta esta pregunta, pero probablemente sea por la razón equivocada. La respuesta corta es que hacemos un uso intensivo de lo que se conoce como filtros Bloom porque necesitamos gestionar una gran cantidad de datos, y los filtros Bloom nos pueden ahorrar mucho tiempo y almacenamiento. La respuesta larga sigue siendo que hacemos un uso intensivo de los filtros Bloom porque necesitamos gestionar una gran cantidad de datos, pero también quiero decir algunas palabras sobre estos filtros: cuando gestionas un gran número de elementos en un conjunto, es decir, miles de millones de artículos, o incluso billones, buscar cosas de forma rápida se vuelve muy difícil. Aquí es donde los filtros Bloom resultan útiles: permiten consultar un conjunto diferente que contenga un hash de posibles elementos en el conjunto principal y buscar los datos allí. Como primero se buscan los hashes, es bastante rápido, pero a veces conlleva una pérdida de datos (ya sea intencionada o no) y eso es lo que estás experimentando: con menos datos que revisar, las predicciones sobre si algo existe o no en el conjunto principal son más precisas. Básicamente, los filtros Bloom aceleran las búsquedas al predecir si algo existe en un conjunto de datos, pero a costa de la precisión, y cuanto más pequeño es el conjunto de datos, más precisas son las predicciones.
¿Por qué no se indexan correctamente las páginas de mi sitio web de Google Sites?
John: Nos ha llegado una pregunta en francés que dice: "¿Por qué las páginas de mi sitio web de Google Sites no se indexan correctamente?".
Es genial recibir preguntas en otros idiomas. Los sitios web creados en Google Sites se pueden indexar y, de hecho, se indexan en la Búsqueda de Google. Sin embargo, las URLs usadas en Google Sites son un poco difíciles de monitorizar, ya que la versión pública puede ser distinta a la URL que ves cuando inicias sesión. Para ser francos, aunque técnicamente puede indexarse, no es ideal para fines de SEO, y la monitorización puede ser compleja en Search Console. Si el SEO es tu principal opción, puede que merezca la pena buscar otras opciones y comprobar los pros y los contras antes de decidirte. Para monitorizar el rendimiento en Search Console, también puedes usar tu propio nombre de dominio para el contenido de Google Sites. Usar tu propio nombre de dominio facilita la migración, en caso de que decidas hacer una, y te permite verificar la propiedad de todo el dominio para Search Console.
Nuestro sitio tiene muchos botones. Al hacer clic en ellos, se obtienen enlaces a otras páginas. ¿Puede Google rastrear estos enlaces?
Gary: Sarabjit pregunta: "Nuestro sitio web tiene varios botones. Al hacer clic en ellos, obtenemos enlaces a otras páginas. ¿Podrá Google rastrear estos enlaces?".
Por lo general, el robot de Google no hace clic en los botones.
Si estoy escribiendo contenido valioso, ¿las "publicaciones de invitados" (para obtener un enlace entrante) infringen las directrices de Google?
John: Brooke pregunta: "Hoy en día, la mayoría de los sitios web solo ofrecen la opción de comprar una 'publicación de invitado' (para obtener un enlace entrante). ¿Se infringen las directrices de Google si escribo contenido valioso?".
Hola, Brooke. Gracias por publicar tu pregunta. Parece que vas por buen camino. Sí, usar publicaciones de invitados para obtener enlaces va en contra de nuestras políticas de spam. En concreto, es importante que los enlaces estén cualificados de tal forma que indique que no afectan a los resultados de búsqueda. Puedes hacer esto con los atributos rel=nofollow
o rel=sponsored
en los enlaces. No hay problema en usar publicidad para promocionar tu sitio, pero, tal como hemos mencionado, debes bloquear los enlaces.
¿El contenido de una página de categoría de comercio electrónico es útil para mejorar el posicionamiento general?
Gary: Brooke pregunta: "¿El contenido de una página de categoría de comercio electrónico es útil para mejorar el posicionamiento general?".
Puedes añadir el contenido que quieras a tus páginas. Al fin y al cabo, son tus páginas. No obstante, te pedimos que no incluyas frases de texto repetidas de baja calidad generadas automáticamente en todas tus páginas de categorías. Parece absurdo, incluso para una persona normal. Si necesitas contenido en tus páginas, añade contenido que a los usuarios realmente les resulte útil, en lugar de añadir contenido porque podría servir para la Búsqueda o algo así. Consulta también nuestras recomendaciones de comercio electrónico.
¿Las etiquetas semánticas incorrectas hacen que Google comprenda peor el contenido del sitio web?
John: ¿Las etiquetas semánticas incorrectas hacen que Google comprenda peor el contenido del sitio web y, por lo tanto, no pueda asignarlo a una rama? En concreto, las etiquetas <hr>
indican un cambio de tema, pero es posible que solo las use con fines de diseño.
Buena pregunta. En general, utilizar HTML semántico correctamente puede ayudar a los buscadores a comprender mejor el contenido de una página y su contexto. Por ejemplo, si marcas los encabezados de una página, es una señal clara de que crees que tu contenido se ajusta a ese encabezado. No es un camino secreto para alcanzar la primera posición en el posicionamiento, pero si nos cuesta entender lo que quieres decir en el texto, proporcionar un resumen claro en forma de encabezados puede ayudar. Dado que se trata de algo sutil que depende de lo bien que entendamos la página, me parece una buena práctica asegurarse de tenerlo todo cubierto. La cuestión de las etiquetas HTML semánticas correctas e incorrectas también es algo muy sutil. ¿Los buscadores pueden comprender tu página? En ese caso, es probable que no notes ninguna diferencia en su forma de entenderlo. ¿El significado se vuelve confuso? Entonces quizás puedas aclararlo con alguna estructura semántica. En cuanto a tu ejemplo concreto de las etiquetas <hr>
, no se me ocurre ninguna situación en la que se produzca una diferencia en la comprensión de una página debido a su uso incorrecto. Hay infinitas formas de usar algo incorrectamente, pero las que creo que un diseñador podría encontrar con etiquetas <hr>
no son graves. Supongo que es una buena forma de decir "depende", de nada.
En Google Search Console, el informe de páginas 404
tiene muchas URLs que parecen ser de JSON o de JavaScript. ¿Deberíamos ignorarlas?
Gary: Reza pregunta: "En Google Search Console, el informe de páginas 404
está lleno de URLs que parece que se han recogido por error en algún código JSON o JavaScript. ¿Deberíamos ignorarlas?".
Puedes ignorarlas o simplemente añadirles un encabezado HTTP noindex
.
¿Los archivos de índice de sitemaps pueden tener enlaces a archivos de sitemap de otros dominios?
John: Dhruv pregunta: "¿El archivo de índice de sitemaps puede tener enlaces a archivos de sitemaps de otros dominios?".
Hola, Dhruv. Una pregunta interesante. La respuesta de Google es un rotundo "quizás" y, por ello, mi sugerencia es que no utilices una configuración de este tipo. Puedes enviar sitemaps de URLs que no pertenezcan al mismo dominio en dos situaciones: enviando el sitemap mediante un archivo robots.txt o verificando la propiedad de todos los dominios en Search Console. Cuando se analiza el sitio web, la propiedad de Search Console puede ser sutil y no visible de forma inmediata, por lo que es fácil olvidarse de esa conexión. Si trabajas con archivos de sitemap y decides que quieres usar una configuración como esta, te recomiendo que añadas un comentario XML al archivo de sitemap para que recuerdes estos requisitos y que no los infrinjas accidentalmente en el futuro. Dado que Search Console es específico de Google, te recomendamos que compruebes también los requisitos que pueden tener otros buscadores al respecto.
¿Cómo se reduce la probabilidad de que Google elija sus propias metadescripciones para sitios web?
Gary: Sam Bowers pregunta: "¿Cómo se reduce la probabilidad de que Google elija sus propias metadescripciones para sitios web?".
Buena pregunta. Aunque no lo hacen siempre, normalmente nuestros algoritmos utilizarán la metadescripción cuando no haya mucho contenido en la página o cuando la metadescripción sea más relevante para la consulta del usuario que el contenido real de la página. Consulta más información sobre las descripciones y los fragmentos.
¿Hay alguna forma de especificar que los robots de buscadores no rastreen determinadas secciones de una página?
John: ¿Hay alguna forma de especificar que los robots de buscadores no rastreen determinadas secciones de una página? (la página está habilitada para rastrearse e indexarse). Indican que hay muchos duplicados en los megamenús y que les gustaría bloquearlos.
Sí, hay cosas que se pueden hacer para impedir que se indexen partes de una página. Sin embargo, cuando se trata de elementos comunes de la página como encabezados, menús, barras laterales y pies de página, no es necesario impedir que se indexen. Los buscadores tratan la Web tal y como es y, a veces, hay megamenús gigantes o demasiados pies de página, y no pasa nada. Para otros fragmentos de contenido de una página, puedes usar un iframe con una fuente no permitida por robots.txt o incluir contenido con JavaScript que también esté bloqueado por robots.txt. Si solo quieres evitar que se muestre algo en un fragmento, te recomendamos que uses el atributo data-nosnippet
. Pero, de nuevo, no hay necesidad de añadir tanta complejidad solo para ocultar un menú. La complejidad innecesaria conlleva el riesgo de que las cosas salgan mal de forma inesperada, por lo que está bien limitarla a los casos en los que realmente es necesario.
¿Es recomendable usar el desplazamiento infinito en páginas web? ¿Afecta esto al tráfico orgánico o al robot de Google?
Gary: Jeethu pregunta: "¿Es recomendable usar el desplazamiento infinito en páginas web? Si añado esa función, ¿afecta al tráfico orgánico o al robot de Google?".
Depende de cómo implementes el desplazamiento infinito. Si cada pieza o página virtual también es accesible y localizable a través de una URL única, por lo general no debería haber problemas con el desplazamiento infinito.
Tengo enlaces que se muestran en la versión web para móviles, pero ocultos en la versión para ordenadores. ¿Los devaluará Google?
John: Ryan pregunta: "Si una página principal contiene enlaces que se muestran en la Web móvil, pero que se ocultan tras un interruptor JavaScript en la versión para ordenadores y no se incluyen en el HTML a menos que se haga clic en ellos, ¿los devaluará Google?".
Hola, Ryan. Con la indexación centrada en los móviles, utilizamos la versión móvil de las páginas como base para la indexación y para descubrir enlaces. Si la versión para móviles incluye el contenido completo, no tienes que hacer nada. Me sorprende que tengas menos contenido en la versión para ordenadores, pero supongo que tendrás motivos para ello.
¿Google indexa los archivos PDF guardados en Google Drive que no están alojados en un sitio web?
Gary: Un usuario anónimo pregunta: "¿Google indexa los archivos PDF guardados en Google Drive que no están alojados en un sitio web? Si es así, ¿cuánto tarda en hacerlo?".
Sí, Google puede indexar archivos PDF públicos alojados en Google Drive, no es más que otra URL de un sitio. Como ocurre con cualquier URL, la indexación de estos PDFs puede tardar entre unos segundos y la eternidad.
¿Cómo rastrea Google el contenido de Scrolljacking? ¿Repercutirá este enfoque de experiencia de usuario en el posicionamiento?
John: Matt ha enviado una pregunta diciendo: "El 'Scrolljacking' está ganando popularidad en la Web. Por lo general, se considera una mala experiencia de usuario. ¿Cómo rastrea Google este contenido? ¿Repercutirá este enfoque de experiencia de usuario en el posicionamiento?". También ha añadido un enlace a un artículo sobre Scrolljacking, que enlazaré en la transcripción.
Hola, Matt. Es una pregunta interesante. No sabía que se llamaba "Scrolljacking". Gracias por el enlace. No nos parece que esta configuración sea inadecuada, por lo que no tiene un efecto directo. Sin embargo, es posible que se produzcan consecuencias técnicas de segundo orden. Por ejemplo, Google renderiza las páginas cargándolas en un dispositivo móvil teóricamente grande. Si la página no muestra el contenido debido a manipulaciones con los eventos de desplazamiento, nuestros sistemas podrían asumir que el contenido no se ve correctamente. En resumen, yo lo vería más como un posible problema de renderizado que de calidad.
¿Por qué se indexa la URL a pesar de estar bloqueada por robots.txt en mi Google Search Console?
Gary: Deniz Can Aral pregunta: "¿Por qué se indexa la URL a pesar de estar bloqueada por robots.txt en mi Google Search Console?".
Se trata de una pregunta relativamente habitual: Google puede indexar la URL, y solo la URL, no el contenido, aunque se haya bloqueado el rastreo de esa URL mediante robots.txt. Sin embargo, el número de URLs de este tipo en nuestro índice es muy reducido, ya que esto solo ocurre si la URL bloqueada es muy buscada en Internet. Si esto te supone un problema, permite que se rastree la URL y usa una regla noindex
en los encabezados HTTP o una etiqueta <meta>
.
Tenemos contenido de IA no deseado. ¿Cómo puedo solucionarlo o quitarlo de mi sitio web?
John: Sonia pregunta: "Contratamos a algunos redactores de contenido, pero han usado contenido generado por IA. ¿Cómo puedo solucionarlo? ¿Simplemente eliminando el contenido de IA? ¿Sustituyéndolo por contenido nuevo? ¿Borrando y creando un sitio web con una nueva URL? ¿Qué puedo hacer?".
No sé qué decir, Sonia. ¿Has publicado contenido a ciegas de autores externos sin revisarlo? Parece una mala idea, incluso sin el aspecto del contenido de IA. Bien, independientemente de los motivos y la fuente, si has publicado contenido de baja calidad en tu sitio web y ya no quieres que se te asocie a él, puedes retirar el contenido o corregirlo. Te sugiero que tomes una perspectiva más amplia: ¿falta contenido como este en la Web, y tu sitio podría aportar un valor significativo para los usuarios en general? ¿O se trata simplemente de contenido cifrado con hash que ya existe en el resto de la Web? O piensa en ello de esta manera: si tu contenido es esencialmente el mismo que el que ya tienen otros usuarios, ¿por qué deberían los buscadores indexarlo, y mucho menos mostrarlo en los primeros puestos de los resultados de búsqueda? Y, por supuesto, para crear un buen sitio web no basta con tener buenos artículos, sino que hace falta una estrategia clara y procesos que garanticen que todos estén al tanto de tus objetivos.
Hemos observado un aumento de URLs indexadas de un día para otro. ¿Cuáles son los motivos?
Gary: Lorenzo pregunta: "Hemos detectado un aumento de URLs indexadas de un día para otro. ¿Cuáles son los motivos?".
Quizá tengamos más discos duros, quizá hayamos liberado espacio, quizá simplemente hayamos descubierto esas nuevas URLs. Es difícil saberlo. De todas formas, ¡son buenas noticias! ¡Celébralo!
¿Puede Google usar varios tamaños de archivo en un archivo de icono de página?
John: Dave pregunta: "¿Puede Google usar varios tamaños de archivo en un archivo de icono de página? ¿Comprende si hay varios iconos marcados con el atributo de tamaños y cuál es el adecuado?".
Hola, Dave. Técnicamente, el formato de archivo .ico te permite proporcionar archivos en varias resoluciones. Sin embargo, debido al aumento del número de tamaños que se utilizan para diversos fines, sospecho que, por lo general, es mejor especificar los tamaños y los archivos de forma individual. Google admite varios tamaños de iconos de página en HTML, así que si hay tamaños específicos que quieras proporcionar, yo optaría por esa solución.
¿Google evalúa las partes de un sitio web de forma diferente si hay un CMS distinto detrás?
Gary: Vivienne pregunta: "¿Google evalúa las partes de un sitio web de forma diferente si hay un CMS distinto detrás?".
No.
En la Búsqueda de Google, nuestro sitio web muestra una descarga de PDF como página principal. ¿Se puede cambiar el resultado de búsqueda?
John: Anna pregunta: "El resultado de búsqueda de Google del sitio web de nuestra fundación debe volver a rastrearse, ya que muestra una descarga de PDF como página principal. Nuestro sitio web es una fundación neerlandesa de derechos humanos. ¿Se puede cambiar el resultado de búsqueda?".
Hola, Anna. He revisado tu sitio web y el motivo por el que se muestran otras páginas en lugar de la página principal es que esta tiene una etiqueta <meta>
robots noindex
. La etiqueta <meta>
impedirá que se indexe esa página. Cuando lo quites, el problema debería solucionarse rápidamente.
Cuando busco mi sitio web en la Búsqueda de Google, el primer resultado es una página de producto y no mi página de bienvenida. ¿Por qué?
John: Julien pregunta: "Cuando busco mi sitio web en la Búsqueda de Google, el primer resultado es una página de producto y no mi página de bienvenida. ¿A qué se debe? La página del producto ni siquiera está preparada en cuanto al SEO, pero mi página de bienvenida sí lo está".
Hola, Julien. Google utiliza una serie de factores para intentar averiguar qué páginas pueden ser las más relevantes para los usuarios como respuesta a una consulta concreta. En la extracción de información, uno de los conceptos se basa en la intención percibida del usuario. En resumen, ¿qué intentaban hacer al buscarlo? ¿Buscan más información sobre un producto o una empresa? ¿O prefieren comprar un producto en ese momento? Esto también puede cambiar con el tiempo para la misma consulta. En definitiva, esto significa que, aunque una página no esté preparada para SEO, puede que aparezca en la Búsqueda si los sistemas consideran que es relevante en ese momento. En la práctica, mi recomendación es que conozcas las diferentes formas en que los usuarios pueden llegar a tu sitio e intentes cubrir sus necesidades adecuadamente para que, independientemente de dónde lleguen, tengan una buena experiencia.
He recibido una alerta de Search Console sobre cómo mejorar los problemas de INP. ¿Cómo se calcula y cuál es la solución más sencilla?
John: Alejandro ha enviado la siguiente pregunta: "Hola, John y el equipo de Google. Hoy he recibido una alerta de Search Console sobre cómo mejorar los problemas de INP. ¿Cómo se calculan estos datos y cuál es la forma más fácil de corregirlo?".
No tengo una respuesta completa, pero sí que hay bastante documentación sobre Interaction to Next Paint, o INP, en el sitio web.dev. Te recomiendo que le eches un vistazo si quieres mejorar las puntuaciones de tu sitio. Ten en cuenta que INP todavía no forma parte de Core Web Vitals, y es solo uno de los muchos elementos que desempeñan un papel en la experiencia en la página y en nuestros sistemas de contenido útil. Aunque mejorar INP puede afectar positivamente a la experiencia de usuario, no esperaría que cambie de forma visible el posicionamiento en las búsquedas.
¿Cómo puedo retirar 30.000 URLs de Google Search Console de un hackeo de palabras clave en japonés?
John: Heather pregunta: "¿Cómo se pueden retirar 30.000 URLs de GSC de un hackeo de palabras clave en japonés?".
Hola, Heather. Siento que te hayan hackeado. Espero que hayas podido resolverlo. Tenemos algo de contenido sobre este tipo de hackeo en web.dev. Añadiré el enlace en la transcripción. Ten en cuenta que este hackeo tiende a encubrir el contenido hackeado a Google, por lo que puede que necesites algo de ayuda para comprobar que se ha retirado por completo. En cuanto a los resultados de búsqueda, teniendo en cuenta el número de páginas afectadas, te recomiendo que te centres en las páginas más visibles y que resuelvas el problema manualmente retirándolas o volviendo a indexarlas y dejando que el resto se vaya solucionando por sí solo. Si buscas explícitamente el contenido hackeado, podrás seguir encontrándolo durante un tiempo, pero el usuario promedio buscará tu sitio y el objetivo es que esos resultados de búsqueda sean correctos.
¿Por qué se desindexan mis páginas después de enviarlas para indexarlas en Search Console? Ya lo he hecho varias veces.
John: Grace pregunta: "¿Por qué se desindexan páginas después de enviarlas a Search Console para que se indexen? Ya lo he hecho varias veces".
Hola, Grace. No puedo decir nada sin conocer las páginas implicadas, pero puede ser que nuestros sistemas no estén convencidos del valor de tu sitio y su contenido. Casi nunca indexamos todas las páginas de un sitio web, por lo que también es de esperar que ocurra. Es posible que puedas solicitar la indexación una vez, pero con el tiempo nuestros sistemas volverán a evaluar el contenido y el sitio web, y puede que decidan descartar esas páginas de nuevo. Lo mejor es dejar de intentar que se indexen estas páginas y convencer a nuestros sistemas de la calidad general de tu sitio web, el valor único que aporta a la Web y la coincidencia con lo que buscan los usuarios. Después, lo indexaremos por nuestra cuenta.