El ataque de los bots

0
247

**También generan fraude de clics que perjudica la publicidad

Inundan los bots la Red de redes. Sólo el 36% del tráfico en sitios web o aplicaciones proviene de humanos, el resto son automatizaciones y hasta el 40% corresponde a bots maliciosos, dice Raymundo Rubio, director de Interia, soluciones digitales y comunicación.
El directivo dice que algunos bots son fundamentales para servicios útiles como los motores de búsqueda y los asistentes digitales como Siri o Alexa y la mayoría de empresas aceptan este tipo de bots en sus sitios, pero otros pueden tener un objetivo malicioso.
Estos últimos son aquellos usados para relleno de credenciales, scraping de datos y ataques DDoS. Incluso algunos de los bots menos perjudiciales, como los rastreadores web no autorizados, pueden interrumpir el analytics del sitio y generar fraude de clics, asegura Rubio.
“Los principales objetivos de los bots maliciosos son las aplicaciones de comercio electrónico y los portales de inicio de sesión (login)”, menciona el directivo de Interia quien menciona que es relativamente fácil identificar el tráfico de bots a través de las herramientas de análisis web integradas, como Google Analytics o Heap.
Entre las anomalías analíticas características del tráfico de bots sobresalen las vistas de página anormalmente altas. “Si en un sitio se produce un repunte brusco, sin precedentes e inesperado de las vistas de página, es probable que haya bots que hacen clic en el sitio”, dice Rubio.
Otro síntoma característico del excesivo tráfico de boots es una tasa de rebote anormalmente alta. Es decir, el número de usuarios que llegan a una sola página de un sitio y la abandonan antes de hacer clic en cualquier lugar de ella. Otros dos síntomas son la duración de la sesión sorprendentemente alta o baja, conversiones no deseadas y el repunte del tráfico desde una ubicación inesperada, menciona el directivo de Interia.


“El tráfico de bots no autorizado puede afectar a las métricas de análisis como las vistas de páginas, porcentaje de rebote, duración de la sesión, geolocalización de los usuarios y las conversiones. Todo esto dificulta medir el funcionamiento de un sitio inundado de bots e impide mejorar el sitio”, refiere Rubio.
Más allá del ruido estadístico generado por los bots, éstos pueden desencadenan diversos crímenes cibernéticos como la suplantación de identidad y muchos otros relacionados con operaciones fraudulentas, remarca el experto.
Actualmente, el 22% del tráfico de bots maliciosos llega de Europa proveniente de servicios de alojamiento o IP residenciales. “Los clouds más comunes son AWS y Microsoft Azure”, menciona Rubio.
El experto en comunicación digital recomienda filtrar el tráfico de bots desde Google Analytics. Esta plataforma ofrece una opción para “excluir todos los resultados de bots y arañas conocidos” . Es decir, bots de motores de búsqueda que rastrean páginas web) Si se puede identificar el origen del tráfico de los bots, los usuarios también pueden proporcionar una lista específica de IP para que Google Analytics las ignore.
“El tráfico de bots maliciosos también impacta económicamente a los sitios que dependen de la publicidad y aquellos que venden mercancías con inventario limitado por el fraude de clics. En el comercio electrónico los bots añaden toneladas de mercancía en los carritos de la compra, y esto evita que los compradores legítimos pueden tener acceso a dicha mercancía. En algunos casos, también puede llevar a la reposición innecesaria de inventario de un proveedor o un fabricante, dice Rubio.
El primer paso para detener o gestionar el tráfico de bots a un sitio web es incluir un archivo robots.txt. Este archivo proporciona instrucciones para los bots que rastrean la página, e incluso se puede configurar para prevenir que los bots visiten o interactúen con una página web. Pero debe tenerse en cuenta que solo los bots beneficiosos cumplirán con las reglas establecidas en robots.txt; esto no evitará que robots maliciosos rastreen un sitio web.
“Algunas herramientas que limitan el tráfico maliciosos son rate limiting que puede detectar y prevenir el tráfico de bots que se origine desde una única dirección IP y un ingeniero de redes puede observar el tráfico de un sitio e identificar solicitudes de red sospechosas, y proporcionar una lista de direcciones IP que serán bloqueadas por una herramienta de filtrado como WAF”, mencionó el director de Interia.