Google no puede cargar todos los recursos de la página, lo que está causando errores de script y puede estar dañando nuestro SEO


8

Acabamos de darnos cuenta de que la mayoría de nuestros sitios web tienen los mismos errores, pero no sabemos cómo solucionarlos.

https://search.google.com/test/mobile-friendly

Parece que algunos scripts en los sitios web no se incluyen. Creemos que esto tiene un impacto en nuestros resultados orgánicos de SEO. Probamos los pasos de la prueba de Google para dispositivos móviles, pero no hubo resultados. Hemos estado buscando durante la última semana, pero aún no hemos encontrado una solución.

¿Alguna sugerencia? ¡Por favor déjanos saber!

El error:

Página parcialmente cargada

No se pueden cargar todas las páginas de recursos. Esto puede afectar la forma en que Google ve e interpreta su página. Solucione problemas de disponibilidad para las fuentes que pueden afectar la forma en que Google interpreta su página. ''


Esto a menudo es causado por esos scripts que no se permiten en robots.txt. En un sitio de WordPress, no permitir wp-contentpuede causar esos problemas. Sin embargo, su robots.txt me parece bien, al menos ahora. ¿Lo has cambiado recientemente?
Stephen Ostermiller

1
¿Llegaste al fondo de esto ahora? Tenemos problemas similares en docenas de sitios web. Cada prueba da resultados diferentes, a veces carga todo, a veces no puede cargar pocos recursos, css, js o imágenes y luego desencadena un error y envía un correo electrónico sobre dispositivos móviles.
Goran Usljebrka

Respuestas:


1

Googlebot podrá leer mucho Javascript, pero no todo. Si su archivo robots.txt está configurado para permitir el rastreo de sus archivos .js, entonces es probable que su javascript sea demasiado complejo para que Google lo procese por completo.

Como resultado, es posible que deba seguir probando diferentes versiones de su javascript con la prueba amigable para dispositivos móviles para determinar una versión que Google pueda procesar correctamente. Cuanto más complejo sea su javascript, más probable será que Google no pueda leerlo. Intenta simplificar tu Javascript lo mejor que puedas.


No lo creo, ya que tengo exactamente el mismo problema con una lista de 10 jsy jpgarchivos. Entonces, considerando su explicación, ¿qué pasa con los jpgarchivos?
Pmpr

1

"Página parcialmente cargada" debe darle una lista de recursos que googlebot no pudo cargar. Comience con la verificación de esos recursos para la accesibilidad.

  • A continuación, intente esto: ejecute la prueba mobile-freindly dos veces. Primero, http: // versión, luego, https: // versión. Esto es para verificar si la versión https del sitio está intentando cargar recursos desde la versión http y viceversa. Entre las dos pruebas, si ve una diferencia en el número de recursos no cargados, concéntrese en esos recursos.

  • Para obtener una mejor visión de lo que se está cargando y cuándo, pruebe el sitio en gtmetrix.com. Esto le dará los recursos cargados en orden cronológico, y también en formato cascada.

  • En el frente del código, reduzca el número de javascripts. Miré la fuente de uno de los sitios y veo cerca de 20 javascript incluye. Esas son muchas solicitudes http del mismo dominio. Agregue a eso las solicitudes de imágenes, css, fuentes, etc. Intente fusionar los archivos js y css en uno o dos archivos cada uno.


Esto no aborda bien la pregunta. Tengo exactamente el mismo problema con la herramienta de prueba amigable para dispositivos móviles de Google, no se pudieron cargar los recursos de informes con la lista de 10 jsy jpgarchivos, ¡puedo descargarlos sin ningún problema!
Pmpr

1

Cuando utilice esta prueba, tenga en cuenta que muchos píxeles / scripts de seguimiento de anuncios (incluso los píxeles de Google y los píxeles de Doubleclick (Google posee Doubleclick)) pueden estar bloqueados por su propio archivo robots.txt que no puede controlar. He visto esto de primera mano en uno de mis propios sitios: Google bloqueó su propio píxel Doubleclick para que el Googlebot no lo escaneara. Debe preguntarse: "El robot de Google es para identificar el contenido de su página, no para seguir los rastreadores de píxeles. Incluso los propios píxeles de rastreo de Google están bloqueando su propio robot de Google. Entonces, ¿por qué debería importarme si se bloquean los rastreadores de píxeles?" Y también veo esto con el píxel de Facebook.

Sin embargo, si se trata de un archivo robots.txt que usted controla y no tiene nada que ver con el seguimiento de píxeles, es probable que sea algo que deba abordar. Ahora, si tiene una parte de su sitio web solo para miembros, o una parte de su sitio web solo para administradores, y está vinculada desde la página de inicio, entonces podría considerar los atributos de enlace de ocultamiento de enlaces o nofollow para que Googlebot no intenta seguir eso en tu página. Sin embargo, uno tiene que preguntarse si Google quiere que permita que el robot de Google pase una sección solo para miembros o administradores de su sitio web, lo que, en mi opinión, probablemente no.

Esta es mi opinión, sin embargo. A menos que podamos hacer que el Equipo de Ingeniería SEO de Google responda, estamos a tientas en la oscuridad y solo tenemos que usar nuestra mejor intuición de sentido común aquí.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.