Errores más comunes de Programadores en el SEO

Los programadores y los SEO dependemos los unos de los otros, esto no va de «indios y vaqueros» donde un bando ve al otro como el enemigo, cada uno tiene un punto de vista que aportar, aquí todos tenemos que trabajar en equipo para hacer las Webs más legibles a ojos de los buscadores.

 

La intención de este artículo en ningún momento es echar por tierra el trabajo de los programadores, soy programador por vocación y admito que he cometido varios de los errores que voy a comentar a continuación.

 

La idea es, a modo de sarcasmo y con un guiño a las parodias de Pantomima Full, hacer una crítica constructiva, para ayudar a evitar posibles problemas y poder dedicar más tiempo en hacer mejoras en vez de arreglar estropicios.

 

Quería agradecer a Charlie Torres por ayudarme a grabar el vídeo.

 

Estos son algunos de los errores de programadores más habituales que he visto en el SEO, si te has encontrado algún caso más sería genial que compartas tu experiencia en los comentarios (no hace falta mencionar ninguna empresa o persona).

 

Aquí puedes acceder al checklist de errores SEO en Google Drive.

Se indexa contenido por error

  • No bloquear el rastreo a Google en la Web de pruebas mediante disalow o noindex.
  • No bloquear el rastreo a Google a ciertas carpetas con documentos confidenciales, como por ejemplo facturas en pdf.

Problemas de rastreo

  • Bloquear el rastreo a Google por subir a producción el disalow o noindex de la Web de pruebas.
  • Cargar contenido por ajax-javascript, sin dejar enlaces que pueda rastrear Google para que pueda llegar a ese mismo contenido.
  • Cambiar de CMS o crear una Web desde cero con el efecto colateral de cambiar toda la estructura de URL y que todas las páginas indexadas por Google devuelvan error 404.
  • Que una URL haga varias redirecciones 301 demás.
  • Traducir la Web de forma dinámica según el idioma del navegador con la misma URL.
  • Que una URL no exista y devuelva estado 200.
  • Concatenar URL y hacer bucles infinitos, suele pasar cuando no se usan URL absolutas y se olvida poner barra al principio.
  • Paginación infinita, esto no va solo de sumar una página más uno, hay que controlar cual es la última página.
  • URLs que devuelven error 404 en sitemaps.xml.
  • Poner la URL relativa en vez de la absoluta (la que tiene el dominio) en la meta-etiqueta canonical.
  • Usar la etiqueta HTML select para hacer un menú de navegación por javascript, por ejemplo un cambio de idioma.
  • Tener la Web en HTTPS y poner los enlaces internos en HTTP, hacemos que Google trabaje el doble.

Contenido duplicado

  • Varias URL cargan el mismo contenido.
  • En la meta-etiqueta canonical se pueden colar parámetros GET inventados.
  • Varias páginas tienen el mismo title o h1.

Optimización de carga

  • En listados usar miniaturas de imágenes del tamaño de un fondo de pantalla.
  • No usar la versión minificada de librerías javascript o clases CSS en producción.
  • Usar variables aleatorias para no cachear ciertos ficheros javascript y css, está bien en desarrollo no en producción.

Normas de convivencia entre Programadores y SEO

  • No hacer cambios gordos un viernes a última hora si no se va a controlar el fin de semana.
  • Si hay alguna duda, preguntar antes de hacer nada.
  • Notificar cuando se hacen cambios que puedan afectar al SEO y que un SEO pueda confirmar que todo está controlado.
  • Una restructuración de URL la debería definir mejor un SEO.
  • Definir la arquitectura Web antes de programar nada, no después de lanzar la Web deprisa y corriendo.

Esta lista puede ser aún mayor y comentar cada uno de ellos puede llevar meses, pero si me gustaría hacer énfasis en algunos puntos:

Evitar que Google indexe la Web de pruebas

Tenemos varias formas para prevenirlo, con hacer una de estas es suficiente:

 

  • Hacer disallow en robots.txt.
  • Poner la meta-etiqueta robots noindex en todas las páginas.
  • Bloquear el acceso por usuario y contraseña mediante .htpasswd y .htaccess.
  • Devolver la cabecera X-Robots-Tag noindex mediante .htaccess o por código.
  • Bloquear el acceso por IP.

Muy importante: Tener en cuenta que estas reglas solo tienen que afectar a la web de pruebas, por lo que si se va a subir alguno de estos ficheros a producción hay que cogerlo con pinzas.

 

Recomiendo leer este artículo sobre la Diferencia entre robots.txt y meta robots

 

Varias URLs cargan el mismo contenido

A veces no se tienen controladas las URL con barra y sin barra final, con o sin www

 

dominio.com/articulo-sobre-seo/
dominio.com/articulo-sobre-seo
www.dominio.com/articulo-sobre-seo/
www.dominio.com/articulo-sobre-seo

 

A ojos de los buscadores son 4 páginas distintas pero con el mismo contenido, tenemos que evitar que todas las URL devuelvan estado 200, primero tenemos que definir cual de estas va ser la principal y en las otras URL hacer una redirección 301 a la principal.

Cambiar la estructura de URL y que las páginas indexadas por Google devuelvan error 404

Si se va a realizar un cambio en la estructura de las URL el programador debería pensar más en el SEO, no subir los cambios a producción sin más, esperando un milagro y que Google resuelva el conflicto.

 

En un mundo ideal lo mejor sería:

 

  • Mirar las páginas que más tráfico orgánico han tenido del año pasado hasta fecha de hoy mediante Google Analytics, para no perder esas valiosas URL.
  • Hacer un listado de las URL que se van a cambiar y donde deberían redirigir con 301.
  • Es posible que no interese mantener ciertas URL, en este caso lo mejor pedir ayuda a un SEO para que decida donde deberían redirigir para poder aprovechar la autoridad que tenían y no dejarlas en un saco roto.
Rate this post
The following two tabs change content below.
Soy consultor SEO en El Corte Inglés - Internet República. Antes de pasarme al SEO he trabajado 10 años como programador web

Últimos artículos de Miquel Camps Orteza (Ver todos)