¿Cuales son los principales problemas con la profundidad de un sitio?

¿A qué llamamos profundidad en un sitio?

Llamamos profundidad del sitio al número de clics necesarios para alcanzar cada una de las páginas desde la HOME, usando siempre el camino más corto. Por ejemplo las páginas enlazadas directamente desde la HOME estarán asociadas al nivel 1.

No lo debemos de confundir con…

Lo que cualquier herramienta de analítica entiende como profundidad; en este tipo de herramientas la profundidad suele ser la de la visita, es decir el número y el tipo de páginas que el usuario ve durante su visita.

¿Por qué debemos tener en cuenta este parámetro?

Normalmente las páginas con más profundidad suelen tener un menor pagerank (no es una verdad absoluta) porque son menos asequibles a los robots de los buscadores, y lo normal es que no las encuentren o que si las encuentran, no vuelvan a rastrearlas con la velocidad necesaria por lo que no se tendrán en cuenta de una manera inmediata los cambios de contenido, estructura,... que hagamos en ellas. Con todo esto no queremos decir que consiguiendo un buen crawl te posiciones bien; queremos decir que las páginas más rastreadas son más susceptibles de posicionarse que las que no.

En resumen: Las páginas profundas son muy difíciles de rastrear y por lo tanto de posicionar.

¿Cómo podemos descubrir este problema?

Botify es la herramienta perfecta para descubrir este tipo de problemas, nos muestra en un indicador la profundidad media a la que se encuentran las páginas del sitio; en el ejemplo 9,73

 

Este indicador idealmente debe estar marcando entre 3 y 5; 9 es demasiado contenido demasiado profundo

El gráfico normal para un sitio es el típico gráfico de campana, donde encontraremos la mayor parte de las páginas situadas en los niveles centrales, si el gráfico no es así generalmente suele pasar que el sitio tiene un problema de crawl.

Generalmente no es muy difícil identificar los problemas de rastreo que tiene un sitio; Botify te ofrece en “Sugested Patterns” los patrones de comportamiento más parecido para los errores que puede tener tu sitio.

Diferentes ejemplos de gráficos de profundidad de diferentes sitios

Ejemplo 1:

Ejemplo 2:

Ejemplo 3:

¿Quienes suelen ser los culpables?

1.- Paginación:

Qué suele pasar

Sabemos que las paginaciones no son los elementos más favorecedores para mejorar el rastreo, entonces ¿cuales son los problemas más comunes?

  •     Paginaciones infinitas
  •     Pocos elementos en cada página del listado
  •     Un esquema de paginación mal planteado; tienes que pensar que cuales son las páginas más valiosas y ser estas las que mostrarle al buscador. Imagina         que tienes 60 páginas y que solo ofreces en la lista entre 3 y 5 páginas, el resto estarán a más de 10 - 15 clicks de profundidad y eso es demasiado

¿Es serio?

Bueno, suele serlo porque solemos tener gran parte de contenido escondido en las paginaciones; para ayudar al usuario solemos colocar motores de búsqueda internos pero no olvidéis que esto solo servirá a los usuarios no al buscador.

Debes de usar el reporte de botify para revisar que tipo de páginas tienes escondidas en los niveles profundos y si te interesan, de ser así debes darle visibilidad desde los niveles superiores.

¿Cómo lo puedo hacer?

- Lo primero que tienes que hacer es trabajar en mejorar la navegación del sitio; si tienes páginas importantes escondidas en los niveles profundos es que tu navegación no es óptima.

Puedes intentar añadir más elementos por página (siempre y cuando no perjudique al performance de tu web)

- Al investigar las páginas profundas te puedes encontrar con un alto volumen de páginas poco valiosas, sin contenido y, dependiendo del volumen de las mismas, puedes bloquear el contenido de estas páginas en el archivo robot para evitar que este exceso de URLs inutiles perjudique el resto de crawl del sitio.  

2.- Filtros de navegación

Qué suele pasar

En las páginas que tienen filtros para ayudar al usuario a encontrar el contenido que quiere / necesita estos filtros suelen ser combinables, es decir se pueden hacer múltiples selecciones, en este caso los robots suelen encontrar combinaciones imposibles que dan como resultado un estado de rastreo del sitio que no es el óptimo, el robot rastrea páginas dinámicas no relevantes.

¿Es serio?

Como siempre en estos casos la seriedad depende del volumen de URLS que se esten creando, en principio no suele ser un problema grave pero si no lo cogemos a tiempo sí que puede ser un mal que nos lleve mucho tiempo subsanar.

¿Cómo lo puedo hacer?

Las mejores prácticas nos indican que debemos hacer una selección de los filtros que debemos dejar que sean rastreables por los robots, generalmente y depende de la web no más de tres niveles de profundidad (combinaciones posibles) se hace así porque son los filtros que tienen un volumen relevante y que nos merecerá la pena posicionar.

Por ejemplo: En una tienda de libros

  • Categoría + Formato =  Es un filtro justificado por los buscadores
  • Categoría + Formato + Color + Autor + Tipo + Valoraciones = No esta justificado por los buscadores.

3.- Parámetros de rastreo en las URLS

Qué suele pasar

Solemos añadir paramétros de tracking / rastreo, (?source=url). Este tipo de paramétros suelen tener como resultado un increíble aumento de número de urls creadas por las combinaciones de los mismos paramétros según como los hayamos configurado, a veces incluso pueden darse combinaciones infinitas que hacen que el robot entre en un bucle y nunca llegue a rastrear el sitio entero, esto se llama spyder trap.

¿Es serio?

Muy serio porque este tipo de URLs suelen ser una fuente inagotable de contenido duplicado.

¿Cómo lo puedo hacer?

En estos casos lo recomendable es cambiar la “?” por “#” que le dice al bot que no lea el resto de la URL así evitamos el contenido duplicado.

Si esta solución no es viable, lo que recomendamos es identificar un patron similar en todas estas URLs y, bloquearlas a través del Robot.

4.- URLS mal formadas - contenido vacío

Qué suele pasar

Hablamos de páginas malformadas cuando aparecen links en nuevas páginas que no llevan a ninguna parte, generalmente a un error 404.

Estos errores son creados por:

¿Es serio?

Depende totalmente del volumen, si estas páginas responden en 500 o en 404 no hay problmema, el problema es cuando responden en 200.

¿Cómo lo puedo hacer?

Se puede solucionar con redirecciones 301 hacia las páginas que consideremos que deberíamos aparecer o haciendo que el servidor muestre un error 404.
 
Este artículo es una traducción del post de Annabelle Bouard en el blog oficial de Botify Top 5 depth issues... and SEO solutions