Un Log es aquel registro que se almacena información en forma de texto cada vez que se hace una petición al servidor de una web. Todos los cambios que se aplican en una web, se almacenan a medida que se van realizando acciones o cambios en el sistema.

Estos archivos se caracterizan por ser como huellas o pistas que se dejan, y sirven de mucho para que puedas analizar aquellos cambios que se han hecho sobre un sistema.

Con los logs se pueden detectar aquellos errores o incidencias que hubieron en una web, para así poder ver cuándo se han realizado y de esta manera, poder ver su porqué.

A modo de ejemplo práctico, si nuestra web durante la noche ha fallado, provocando diversos fallos de acceso con errores 404, con los logs podemos ver a qué se han debido tales errores, ya que habrán quedado registrados.

¿Y qué relación tienen los Logs con el SEO?

Como hemos dicho anteriormente, es muy importante conocer cuál es el Crawl Budget la igual que conocer cómo y con qué frecuencia los bots rastrean una página web. Para ello existe una herramienta sumamente útil como es Screaming Frog Log File Analyser, que puede aportarnos datos fundamentales como cuáles son para los Bots las páginas más importantes o la frecuencia de rastreo.

Gracias a los Logs, podremos detectar aquellos fallos de estructuración de una web, al conocer aquellas páginas que no se llegan a rastrear, al igual que podremos conocer la razón de porque alguna página no consigue rankear bien, ya que tal vez sea porque no es accesible para los bots de los motores de búsqueda. También podremos revisar si funcionan correctamente las redirecciones que haya establecidas, al poder verse qué lectura hacen de ellas los crawlers.

¿Y qué datos aportan los Logs?

Mediante Log Analyser de Screaming Frog, podremos conocer todos estos datos:

  • Enlaces rotos o errores.
  • La frecuencia o el número de veces que un bot pasa por la web.
  • Los códigos de respuesta (200, 301, 404, 505…etc).
  • Desde qué IP están entrando los Bots al hacer el crawler y los bytes que han usado
  • Identificar a los Bos por el User Agent.

Cómo podéis ver, es muy importante ser “sexys” a la vez que accesibles para los motores de búsqueda si lo que queremos es mejorar nuestro Posicionamiento Orgánico. Para ello, se recomienda que a menudo se revise el Crawl Budget, y se analice desde Search Console las Estadísticas de Rastreo para conocer cómo está siendo rastreada la web por parte de Google y los diferentes buscadores. Aquí podéis ver un ejemplo de las estadísticas de rastreo de una web desde Search Console.