4 herramientas de rastreo gratuitas
Muchos profesionales del marketing online conocen o han utilizado alguna vez una herramienta de rastreo. Este post habla de cuatro que son de escritorio (dos muy conocidas y dos no tanto) y que tienen la ventaja de ser gratuitas y funcionar acorde a lo que prometen.
¿Qué es una herramienta de rastreo?
Existen muchas variedades con funcionalidades diferentes, pero hoy nos vamos a centrar en aquellas que resultan especialmente útiles para labores de optimización on page porque generan un listado de todas las páginas que componen una web y lo procesan para devolver información de cada una. Para conseguirlo, utilizan un sistema similar al de los rastreadores de los motores de búsqueda o bots de rastreo (Googlebot y compañía): van navegando de una página a otra utilizando los enlaces que descubren por el camino.
No obstante, hay una diferencia importante entre unos y otros, y es que estas herramientas de rastreo procesarán todas las páginas de una web si así lo indican las directrices que le marca el usuario, mientras que los bots de los buscadores visitan una página y listan todos los enlaces que contiene (la llamada frontera de rastreo) pero no procesan todas las páginas enlazadas de forma inmediata. En lugar de eso, emplean criterios algorítmicos y políticas de rastreo para establecer relaciones de prioridad entre las páginas y así volver más tarde y procesar unas u otras dependiendo de lo que establezcan dichos criterios.
1. Screaming Frog SEO Spider Tool
Aunque es conocida como screaming frog a secas, su nombre completo es Screaming Frog SEO Spider Tool y es una herramienta desarrollada por la agencia británica de marketing Screaming Frog, que fue lanzada hace ya cuatro años. De hecho, el domingo anterior a la publicación de este artículo cumplió su cuarto aniversario (23 de noviembre).
Algunos aspectos positivos:
- Interfaz muy dinámica con numerosas funcionalidades y opciones de visualización.
- Permite localizar contenido duplicado mediante el filtro “Duplicate”, que se puede aplicar a muchos elementos diferentes como los títulos de página, las meta descriptions, las URIs o los encabezamientos.
- Permite incluir o excluir páginas del rastreo mediante el uso de expresiones regulares.
- La opción “Custom” permite localizar cualquier fragmento de código específico en la web rastreada. Esto resulta muy útil para, por ejemplo, detectar si hay alguna página que no tiene implementado el código de Analytics o cualquier otro código de seguimiento.
Algunos aspectos negativos:
- La versión gratuita tiene un límite de 500 URLs en cada rastreo, por lo que si vamos a utilizarla en webs grandes, los datos obtenidos de esas 500 páginas hay que tomarlos a modo de muestra y extrapolarlos al resto de la web.
- No suele detectar todas las imágenes.
Descarga:
http://www.screamingfrog.co.uk/seo-spider/#download
2. Xenu Link Sleuth
Xenu es una herramienta de software propietario descatalogada desde 2010 y desarrollada por Tilman Hausherr que, además de ser el desarrollador de Xenu, curiosamente es también conocido por ser un acérrimo detractor de la iglesia de la Cienciología, como puede comprobarse en su web personal y en alguna de sus intervenciones públicas.
Algunos aspectos positivos:
- Su especialidad es detectar enlaces rotos y el informe que genera después del rastreo ofrece mucha información para resolverlos.
- Muy hábil para detectar imágenes. Se pueden localizar fácilmente las que no tienen texto alternativo ya que aparecen en los resultados de Xenu como página sin título.
Algunos aspectos negativos:
- Interfaz poco intuitiva.
- Desarrollo detenido desde 2010.
Descarga:
http://home.snafu.de/tilman/xenulink.html#Download
Si preferís descargar la versión de 64 bit para trabajar con páginas de gran volumen:
http://home.snafu.de/tilman/tmp/Xenu64.zip
3. VisualSEO Studio
Esta herramienta es bastante menos conocida que las dos anteriores y todo apunta a que viene con la intención de acabar poniéndose a su altura. Fue publicada en 2012 por el desarrollador genovés Federico Sasso, y aunque todavía está en fase beta, la mayoría de sus funcionalidades se encuentran disponibles.
Algunos aspectos positivos:
- Interfaz muy sencilla, cuenta con una sección de recomendaciones de optimización que incluye contenido duplicado, estructura de URLs, etc.
- Permite obtener pantallazos de las páginas rastreadas.
- Permite visualizar la estructura de directorios de la web rastreada con las opciones de vista de árbol e índice. Esto resulta muy útil para analizar la arquitectura de una web y comprobar que se ha construido acorde a una optimización SEO adecuada, identificar si existe un volumen excesivo de niveles de navegación para llegar a las páginas que nos interesa potenciar, etc.
Algunos aspectos negativos:
- Tiene un límite máximo de 75.000 URLs por rastreo para evitar bloqueos de la herramienta.
- No permite aplicar filtros, por lo que no se puede elegir qué partes de una web son las que se quieren rastrear y cuáles no.
Descarga:
http://visual-seo.com/Download
4. GSiteCrawler
Esta herramienta tiene una historia peculiar tras sí. Su desarrollador fue nada más y nada menos que John Mueller, el mismo que a día de hoy se ha convertido en la nueva cara visible de Google gracias a los Webmaster Central office-hours hangouts, donde responde varias veces al mes y en directo a las preguntas de los webmasters acerca de todo lo que tenga que ver con los resultados orgánicos del buscador.
Allá por el 2005, dos años antes de empezar a trabajar en Google, John tenía en Suiza su propia PYME de desarrollo de software para fisioterapeutas (SOFTplus). Un día la web corporativa de su empresa fue desindexada de Google como resultado de algún error de código y, durante el periodo en el cual estuvo investigando la forma de solucionar el problema y crear una web amigable para los motores de búsqueda, descubrió la eficacia de los sitemaps. Así fue como nació esta herramienta: como no había ninguna en el mercado que se adaptara sus necesidades, se creó la suya propia.
Un par de años después y como resultado de su participación activa en el foro de soporte de Google, los de Mountain View le contrataron como analista de tendencias de webmasters:
Algunos aspectos positivos:
- A diferencia de las anteriores, está preparada para procesar webs muy grandes sin bloquearse. Nosotros la hemos probado con sitios de más de 120.000 páginas y funciona sin problema.
- Tiene una sección de estadísticas que identifica páginas con contenido idéntico (duplicaciones generadas por parámetros de URL, etc).
Algunos aspectos negativos:
- La información de optimización on page que genera es prácticamente nula. Solo identifica títulos, metas y contenido duplicado.
- Puede llegar a ser un poco lenta. El rastreo de la web con 120.000 URLs tardó más de un día en completarse.
- Está descontinuada desde el año 2007.
Descarga:
http://gsitecrawler.comhttps://internetrepublic.com/download/
Artículos relacionados
David Muñoz
Últimos artículos de David Muñoz (Ver todos)
- Efecto de la ubicación de las palabras clave en el title - 7 mayo, 2015
- Efecto del tipo de anchor en el posicionamiento - 18 marzo, 2015
- Meta keywords y meta description para SEO: ¿funcionan todavía? - 29 enero, 2015