Puede que no seas consciente de que la mayor parte del tráfico que recibe tu sitio web son spam y robots… Más de la mitad de visitas no son de personas humanas que desean conocer tu negocio, son aplicaciones que ejecutan tareas automatizadas en la red.
En este último artículo de incapsula, vemos un informe de las visitas de estos bots en 2014, según el tipo de sitio web que tengas. ¡Y es una barbaridad! Resulta que más de la mitad de las visitas son de no humanos, y además, ¡los bots maliciosos van en aumento! Es importante pues proteger bien tu sitio web de estas visitas sin perjudicar a los usuarios humanos, pero además, aquí os dejamos unas recomendaciones que hemos ido recopilando para que puedas filtrar este tráfico de tus informes de google analytics.
FUENTE https://www.incapsula.com/blog/bot-traffic-report-2014.html
En primer lugar, te recomiendo que cuando crees una cuenta para empezar a medir las vistas de tu sitio web, no uses la primera propiedad de google analytics. Si, ya sé que parece una tontería, pero muchas visitas de bots buscan primeras propiedades de google analytics, o sea que crea una segunda y habrás esquivado ya unos cuantos.
Otra recomendación es que trabajes siempre con vistas de pruebas. Eso siempre es un buen consejo a la hora de realizar implementaciones en google analytics, pero cuando se trata de aplicar filtros (como veremos aquí) es básico trabajar siguiendo las buenas prácticas que te aconsejan desde google.
Por último, otra recomendación muy útil es que anotes cuando aplicas los filtros en las vistas. Los filtros tardan unos días en hacerse efectivos en los informes de google analytics y cuando gestionas varias cuentas es imposible que sepas cuando has agregado un filtro y a qué vista lo has aplicado… Por eso las anotaciones son siempre bienvenidas en los informes.
Una vez hemos tenido en cuenta estas precauciones, vayamos a lo que deberíamos hacer para que las visitas que nos aparezcan en los informes sean las que hay que medir y no otras.
Os aseguro que hay una cantidad de publicaciones sobre este tema que profundizan muchísimo más, pero os dejo simplemente las acciones que hay que llevar a cabo para filtrar tres tipos de robots: los buenos, los falsos y los fantasmas. A mí me sirve para sintetizar todo lo que hago cuando empiezo una nueva cuenta. O sea que allá vamos:
En primer lugar, usa la opción que te ofrece google analytics para filtrar las visitas de bots y arañas bienintencionadas. Estas no perjudican a tu sitio web, al contrario, pero no son visitas que debas incluir en los informes, o sea que fíltralos. ¡Pero mantenlos en la vista sin filtros! Así podrás darte cuenta de que realmente este filtro está funcionando.
Para no las referencias falsas que se cuelan en los informes de nuestras visitas reales, deberíamos usar un filtro que las excluya. Pero es un error usar el filtro de tipo Referral que te ofrece google analytics y que te mencionan en muchas publicaciones, pues no siempre disponemos de la referencia completa. En cambio, si usas el filtro de tipo Campaign Source, con el dominio suele ser suficiente. En resumen, lo que debes hacer es detectar las referencias que no son reales en el informe de Referral de todo el tráfico de tu sitio web:
Cuando tienes identificados los dominios que deseas excluir, los filtras como spam que son:
Cuidado que con este filtro no estás bloqueando este tráfico, sino que lo excluyes de los informes, que no es lo mismo. Para bloquearlo, puedes pedirle a tu equipo informático que acceda y modifique al archivo htaccess. O bien lo haces tú mismo si sabes cómo
Para que este filtro sea efectivo, necesita que vayas actualizándolo. Por eso es importante que mantengas vistas con todo el tráfico y así detectes las visitas indeseadas.
Por último, ¿cómo podemos filtrar lo que se denomina tráfico fantasma? Se llaman así porque nunca visitan tu sitio web, pero simulan páginas vistas e incluso pueden aparecer en visitas directas o bien tráfico orgánico. Tal y como nos recomienda Mike Sullivan en su guía definitiva para filtrar el tráfico spam en google analytics, lo más apropiado es aplicar un filtro en el que se incluya sólo el tráfico de aquellos host válidos. Como el tráfico fantasma manda la referencia usando un host que no es ninguno de los tuyos, pues se trata de ir manteniendo este filtro actualizado con los nombres que realmente son referencias válidas a tu sitio web.
En primer lugar, encontramos los host en el informe del público, tecnología, network, y seleccionamos la dimensión hostname:
Una vez tenemos los host válidos, creamos un filtro en que se incluyan las visitas desde estos hostname:
Y eso es todo…
Hasta aquí tenemos un par de artículos en que vemos cómo debemos proceder para poder decir que los informes que recibimos de google analytics son fiables. El primero era filtrar el tráfico interno, y aquí hemos hablado de filtrar tráfico externo generado por no humanos.
Pues espero que os haya sido útil y sobretodo, que lo hayáis pasado bien.