Cómo afectan los cambios de Webmaster Tools al SEO

Cuando a finales de octubre Google anunció un cambio en su proceder donde se indicaba que habían mejorado su proceso de indexación de páginas web, más concretamente afirmaba que a partir de ahora las renderizaría junto con los archivos CSS y el lenguaje JavaScript. Esto era un cambio importante para aquellos profesionales SEO que trabajan diariamente con la herramienta Webmaster Tools, ya no solo el cambio visual a la hora de rastrear una web, sino que también se debían optimizar los archivos CSS y JavaScript.

¿Por qué Google cambia su manera de rastrear las páginas web?

El tiempo pasa para todos, aunque seas un gigante de Internet como es Google. La manera en la que indexaba cada web no era completa y no era similar a como lo harían los usuarios. Desde la compañía de Mountain View lo han bautizado como la renderización que haría un navegador moderno, para conseguir una mayor eficiencia y mejores resultados a la hora de mostrar los resultados de búsqueda.

Otro punto que no destacan, pero que yo creo que seguro que ha motivado este cambio, es el hecho de evitar a las personas hacerle trampas a Google o esconder elementos que influyeran en el posicionamiento SEO de una web.

Si no sabéis donde podéis realizar esta nueva funcionalidad, tenéis que entrar en el panel de Webmaster Tools de vuestra web. Ahí, dentro de la pestaña de Rastreo, encontraréis Explorar como Google, tal como veis en la siguiente imagen.

¿Qué puede ocurrir en mi página si no tomo en cuenta los avisos?

Si no permitimos a los robots de Google acceder al CSS y archivos Javascript, esto repercutirá directamente en la indexación de nuestra web y por tanto en las posiciones que ocupamos dentro de los ranking de resultados. Y aunque desde el propio buscador reconocen que no son capaces de detectar todas las posibles tecnologías que puede utilizar una web, indican que siempre hagamos nuestros diseños de manera que les ayuden a ver todo el contenido de manera clara y con unas funcionalidades básicas.

Otro aspecto que destacan como importante es el de comprobar que nuestro servidor soporte la carga de servir a los Googlebot el CSS y el JavaScript. Se entiende que este es un problema fácil de solucionar o que no debería ocurrir de manera normal, pero avisar de antemano siempre viene bien, sobre todo para aquellos usuarios menos habituados a la gestión de páginas web.

Para evitar posibles penalizaciones nos dan un par de tareas a realizar:

Eliminar las descargas innecesarias: aquí entra en juego la experiencia de usuario. Cualquier recurso innecesario o que afecte negativamente al rendimiento debe ser corregido o eliminado.

Optimizar los archivos CSS y JavaScript: tanto con la eliminación de los datos o recursos innecesarios como la compresión de los mismos debe realizarse a medida que nuestra web crece.

Como ya he mencionado al comienzo del artículo, la diferencia entre el rastreo anterior y el actual era muy clara visualmente. Mientras que antes se indexaba el código HTML:

rastreo antiguo webmastertools

Actualmente lo hace como cualquier usuario que entra en la web:

rastreo actual webmastertools

Si tienes alguna duda sobre sobre este cambio o las buenas prácticas que debes seguir, siempre puedes acudir a las Webmaster Guidelines de Webmaster Tools. Pero aquí os dejo el párrafo actualizado donde hablan de este nuevo cambio en el rastreo de webs.

 “To help Google fully understand your site’s contents, allow all of your site’s assets, such as CSS and JavaScript files, to be crawled. The Google indexing system renders webpages using the HTML of a page as well as its assets such as images, CSS, and Javascript files. To see the page assets that Googlebot cannot crawl and to debug directives in your robots.txt file, use the Fetch as Google and the robots.txt Tester tools in Webmaster Tools”

Y tú, ¿ya has comprobado cómo Google Webmaster Tools ve tu página?



Resumen de privacidad

Utilizamos cookies propias y de terceros para fines analíticos y para mostrarte publicidad personalizada en base a un perfil elaborado a partir de tus hábitos de navegación (por ejemplo, páginas visitadas).

Cookies necesarias

Son aquellas que permiten al usuario la navegación a través de la página web, y la utilización de las diferentes opciones o servicios que en ella existen como, por ejemplo, controlar el tráfico y la comunicación de datos, identificar la sesión, acceder a partes de acceso restringido, utilizar elementos de seguridad durante la navegación, almacenar contenidos para la difusión de vídeos o sonido o compartir contenidos a través de redes sociales.
Son cookies técnicas, de sesión, para garantizar que los usuarios sean humanos y no aplicaciones automatizadas. De esta forma se combate el spam.

Analíticas

Cookies que permiten mejorar la funcionalidad de la web realizando un seguimiento del uso del mismo. Pueden mejorar la velocidad con la que podemos procesar tus solicitudes, ya que nos permiten recordar las preferencias del sitio web. Si no se activan el rendimiento podría ralentizarse.

Marketing

Cookies que permiten mejorar la funcionalidad de la web realizando un seguimiento del uso del mismo. Pueden mejorar la velocidad con la que podemos procesar tus solicitudes, ya que nos permiten recordar las preferencias del sitio web. Si no se activan el rendimiento podría ralentizarse.