Control de las URL en una migración SEO
En este post, más que explicar en profundidad cómo realizar una migración SEO hablando de expresiones regulares para configurar el archivo htaccess, vamos a centrarnos en algunos aspectos relacionados con las URL que a veces se dejan de lado cuando se lleva a cabo una migración.
A la hora de realizar una migración SEO hay dos condicionantes que se pueden dar simultáneamente o no.
- Que haya cambio de dominio.
- Que haya cambio de estructura de URLs.
Lo cual dará lugar a 4 casos, aunque el más habitual y en el que más factores habrá que tener en cuenta es el de cambio simultáneo de dominio y de estructura de URLs.
Por ejemplo, una página antigua sería:
www.mi-web.com/categoria-123/item.php?producto=1234
Y en la nueva pasaría a ser:
www.mi-nueva-web.es/muebles/sofa-3-plazas-diffaro
Este sería el caso más complejo.
Sin embargo, si sólo hay cambio de dominio y se mantiene exactamente igual la estructura de URLs, sólo habría que hacer una regla de redirección 301.
Es el caso de que la web actual fuera del tipo:
www.mi-web.com/catalogo/jardin/segadoras
Y la nueva fuera:
www.mi-web.es/catalogo/jardin/segadoras
Este caso se resolvería de la forma:
RewriteCond %{HTTP_HOST} ^www.mi-web.com [NC]
RewriteRule ^(.*)$ http://www.mi-web.es/$1 [L,R=301]
Volvamos al caso más complejo, en este caso desde el punto de vista SEO lo más importante es que se redirijan, siempre con un 301, todas las URLs antiguas a sus equivalentes en la nueva web, ya que toda URL que no sea redirigida dará un error 404.
Para ello habrá que crear tanto reglas htaccess genéricas (que sirvan para redirigir grupos de URLs), como reglas específicas que sólo se apliquen para redirigir una única.
Selección de URLs
En caso de sitios web pequeños, con algunos cientos de URLs, se puede incluso plantear el realizar un mapeo de todas las URLs antiguas hacia las nuevas.
Pero para sitios web muy grandes, con miles de URLs esto no es posible, y como no todas ellas serán igual de importantes, hemos de seleccionar las que obligatoriamente se han de redirigir, aunque para ello haya que crear reglas específicas para cada una de ellas.
Veamos cómo obtener la lista.
URLs que más tráfico SEO generan
Con la herramienta de analítica web que tengamos instalada seleccionaremos las páginas de destino SEO que más tráfico han generado.
Estas son URLs que por el motivo que sea nos están generando tráfico SEO y no podemos perderlo.
URLs con tráfico de referidos
En nuestra herramienta de analítica también podemos ver a qué páginas llega el tráfico de referidos, esta lista de URLs también la debemos tener en cuenta, por que son sitios web que tienen enlaces hacia nuestra web actual y es importante no perderlos.
URLs que más enlaces tienen
En Google Webmaster Tools (GWT) podemos sacar la lista de URLs que más enlaces tienen, estas páginas también deberían estar todas redirigidas pues son páginas que reciben enlaces y hay que evitar perderlos.
También se pueden utilizar otras herramientas de detección de enlaces como Ahrefs que nos proporcionan información sobre las URLs más relevantes en cuanto a número de enlaces.
URLs que más impresiones y clics tienen
La herramienta de GWT nos proporciona una lista de URLs que más impresiones y clics tienen, y aunque los clics están relacionados con las visitas y ya tendríamos esa lista con la herramienta de analítica, sí que puede ser interesante sacar la lista de URLs con más impresiones para que no se nos escape ninguna con potencial SEO.
Como es lógico, muchas URLs estarán en varias listas, sólo deberemos eliminar las que estén repetidas.
Reglas de redirección ascendentes
En ocasiones no se pueden redirigir todas las URLs individuales antiguas a las nuevas mediante reglas htaccess específicas, en este caso lo que se puede hacer es redirecciones a la categoría o nivel superior, por ejemplo, en vez de redirigir todos los productos de la categoría muebles uno por uno, los redirigimos al listado de muebles o al página de entrada de la categoría muebles.
De este modo lo que hacemos es mantener la relación entre la URL antigua y la nueva, lo que desde el punto de vista de Google nos resultará positivo, ya que aunque ambas URLs (antigua y nueva) no tengan el mismo contenido, sí que estará muy relacionado.
Lo que siempre hay que evitar es redirigir todas las URLs antiguas de forma masiva hacia la home.
Reglas de redirección por programación
Aunque siempre se suele poner el foco en el archivo htaccess, hay que recordar que también se pueden ejecutar redirecciones 301 con los distintos lenguajes de programación.
Puede sernos útil este tipo de redirecciones para complementar aquellas que no se han podido realizar con htaccess al tener la flexibilidad de poderlas generar dinámicamente.
Cómo proceder antes y tras la migración
Antes de realizar la migración debemos tener un listado de las URLs antiguas que han de ser redirigidas y que está formado por:
- Las páginas principales de la web (secciones, categorías, subsecciones, etc.). Este listado se obtiene de forma lógica, a través de la estructura de la web antigua.
- Las URLs de destino que reciben más tráfico SEO, que se obtiene de la herramienta de analítica que utilicemos.
- Las URLs de destino desde referidos que se obtienen de la herramienta de analítica web.
- Las URLs más enlazadas, que se obtienen de GWT y de herramientas externas como Ahrefs y similares.
Una vez realizada la migración y con alguna herramienta que permita automatizar esta tarea, como Screaming Frog, comprobamos que toda esta lista de URLs es redirigida con un 301 hacia las páginas equivalentes en la nueva web. Si alguna de ellas da error 404 o bien no se redirige a la URL correcta, deberemos solucionar este problema cuanto antes para que la URL no pierda relevancia.
También es muy importante hacer un seguimiento a través de GWT de los errores 404 que aparecerán con la nueva versión y verificar si siguen algún patrón para crear alguna regla de redirección que los pueda solucionar. Este seguimiento nos permitirá detectar también URLs que nos interesa redirigir y que no hubiéramos incluido en alguna de las listas anteriores.
Y muy importante, y aunque parezca una obviedad, hay que asegurarse de que en la nueva web no se está bloqueando el acceso a los robots. En muchas ocasiones se pone en producción al subir la nueva web el archivo robots.txt que estaba en desarrollo y en el que se suele bloquear a los robots.
Artículos relacionados
Internet República
Últimos artículos de Internet República (Ver todos)
- ¡Estamos contratando un consultor SEO! - 9 julio, 2020
- Buscamos un desarrollador PHP, un stormtrooper de las API - 23 enero, 2018
- ¿Por qué tus empleados son los mejores embajadores de tu marca? - 15 diciembre, 2016