robots de indexación


Robots.txt : ejemplos de buenas prácticas, errores o extravagancias

Tags: 
robot de google / robots de indexación

Vamos a examinar un archivo fundamental en la gestión del rastreo de una web por los robots de indexación: el fichero robots.txt. Este fichero corresponde a un estándar internacionalmente adoptado para limitar el consumo de banda ancha y no perjudicar servidores web. Puede parecer poco creíble que hoy en día se pueda caer un servidor tan sólo descargando  páginas pero en el caso de webs voluminosas (millones o, a veces, millares de URLs), esto es totalmente factible. La gestión de la carga servidor en este caso es fundamental.

¿Qué importancia tiene el rendimiento en SEO?

Mientras que para algunas páginas web mejorar el rendimiento puede ser la optimización que mayor impacto tenga sobre el tráfico orgánico, en otras puede que no sea la solución principal pero aun así encontrarse entre las cinco primeras soluciones.

Ser rastreado por Google

Ser rastreado es el primer paso para ser indexado… y encontrado por Google.

¿Qué ocurriría si una porción de su página fuese completamente desconocida para Google simplemente  porque el buscador no tiene  el tiempo necesario para explorarla?

¿Cuales son los principales problemas con la profundidad de un sitio?

¿A qué llamamos profundidad en un sitio?

Llamamos profundidad del sitio al número de clics necesarios para alcanzar cada una de las páginas desde la HOME, usando siempre el camino más corto. Por ejemplo las páginas enlazadas directamente desde la HOME estarán asociadas al nivel 1.

No lo debemos de confundir con…

Lo que cualquier herramienta de analítica entiende como profundidad; en este tipo de herramientas la profundidad suele ser la de la visita, es decir el número y el tipo de páginas que el usuario ve durante su visita.

Cuentas y leyendas SEO, no confundimos causa y correlación

Recapitulamos algunos mitos SEO que se difunden a través de blogs o páginas webs de consultoras y que nos son del todo ciertos.

Sitemap.xml

Leyenda

El sitemap garantiza la indexación de las URLs de una página