¿Quién domina el tráfico en internet?

¿Quién domina el tráfico en internet?

El internet puede estar hecho por la gente, pero al parecer, no para la gente, más de la mitad del tráfico de internet durante el 2016 estuvo compuesto por robots. El 48.2% del tráfico fueron humanos, mientras que el 51.8% del tráfico que registran los sitios es de bots, ya sean maliciosos (28.9%) o inofensivos (22.9%).

La idea de que el producto tecnológico creado por el hombre tome el control de las situaciones y la creación domine al creador ha estado en la mente de los seres humanos desde hace mucho tiempo, incluso ha tenido sus representaciones en la cultura colectiva.

Evidentemente, todos recordamos la serie de películas de “Terminator” en donde los robots dominan un futuro distópico en el que los humanos luchan por su supervivencia frente a la amenaza androide. O series como Matrix, en la que las máquinas también buscan exprimir la energía de los seres humanos a través de interminables campos de cultivo.

En la literatura, el prolífico autor de origen ruso, Isaac Asimov, contempló en una de sus más aclamadas obras de ciencia ficción, “Yo, Robot”, los problemas que conllevaría un mundo con robots y su necesario apego a las “tres leyes de la robótica”, una guía moral para las máquinas inteligentes y su imprescindible obediencia a estas normas. En 1968, el autor estadounidense, Philip K. Dick, abordó en su libro “¿Sueñan los androides con ovejas eléctricas?”, entre otros temas, los diversos problemas éticos sobre los androides en la sociedad humana.

Lo cierto es que aunque el tema ha sido abordado desde un punto de vista hipotético y fantasioso, los dilemas que podría generar una relación abusiva de una interacción entre los humanos y las máquinas siguen en las mentes de los seres humanos.

Pese a que aún estamos lejos de la normalización de una interacción entre las personas y la inteligencia artificial, lo cierto es que interactuar con robots es más común de lo que pensamos, sobre todo en internet. En internet es muy común encontrarnos con un software, diseñado por seres humanos, que actúa con una labor en específica alrededor del entorno web. Esto incluye a las redes sociales.

Un bot en palabras simples, es un programa automatizado que se utiliza para realizar tareas simples y repetitivas que serían laboriosas, mundanas o imposibles para un ser humano. Los bots se pueden usar para tareas productivas, pero también se utilizan con frecuencia para fines maliciosos. El término “bot” viene del robot. Un robot de Internet también puede ser conocido como un robot web o un robot WWW.

Un ejemplo de un bot inofensivo es una araña de motor de búsqueda. Este tipo de programa busca en la web y acomoda las páginas para un motor de búsqueda. Los robots maliciosos son típicamente amenazas mezcladas que vienen como parte de virus, parte bot o se usan en un robo de identidad o para lanzar ataques de denegación de servicio. Esto es especialmente frecuente en una botnet, que es un grupo de computadoras que están infectadas con un robot malicioso. Otros usos ilegales, o por lo menos cuestionables, involucran bots que recolectan direcciones de correo electrónico para spam, raspan contenido o manipulan comentarios / votos en sitios que permiten comentarios a los usuarios. Existen también una zona en medio de ambos lados del espectro donde los bots son utilizados por los sitios web para promover ofertas de compras. En tales casos, un robot se comportará como una araña de motor de búsqueda para indexar información sobre productos en la web. Algunos sitios de comercio electrónico tomar medidas para prohibir bots de compras de este tipo, mientras que sus creadores sienten que simplemente están proporcionando un mejor servicio a sus propios usuarios.

El internet puede estar hecho por la gente, pero al parecer, no para la gente. Según un reporte anual creado por Imperva Incapsula, más de la mitad del tráfico de internet durante el 2016 estuvo compuesto por robots. Según la quinta edición de este estudio, que analizó más de 16,700 millones visitas a más de 100,000 sitios elegidos al azar, el 48.2% del tráfico en internet fueron seres humanos, mientras que el 51.8% del tráfico que registraron los sitios de internet fue de bots, ya sean maliciosos (28.9%) o inofensivos (22.9%).

Estos datos se vuelven significativos si los comparamos con el reporte del 2015. En el reporte pasado, el tráfico que recibían los servidores de páginas web, era mayoritariamente de humanos (51.5%); los robots maliciosos sólo representaban el 29% del total y el 19.5% correspondía a los robots inofensivos. Lo cierto es que en los últimos años, desde el 2012 cuando comenzó el estudio de Imperva Incapsula, el 2015 ha sido el único año en el que el tráfico humano ha sido mayor que el de los robots.

Los patrones del tráfico de los bots en los sitios web cambian dependiendo de la popularidad de cada sitio web. Según el reporte de Imperva Incapsula, en un sitio web nuevo que reciba de cero a 10 visitas diarias de humanos, se puede considerar que 47.7% de robots malignos y 45.7% de robots inofensivos. Para los sitios web más pequeños con visitas humanas que van desde las 10 hasta las 1,000, se puede esperar 27.1% de bots malignos y 42.6% de bots beningnos. Los sitios medianos, con visitas humanas de entre 1,000 y 10,000 visitas diarias se pueden esperar 24.4% de bots malos y 16.9% de los buenos. Para los sitios web grandes, con aproximadamente entre 10,000 y 100,000 visitas humanas diarias, se esperan 21% de bots malignos y 16.9% de bots inifensivos. Para los sitios con más de 100,000 visitas diarias, el porcentaje de robots malignos es de 18.2%, mientras que el de los inofensivos es de 14.5 por ciento.

El reporte identifica a ocho tipo de bots, cuatro inofensivos y cuatro malignos, y sus porcentajes de uso de internet.

Los inofensivos son: bots de monitoreo web (revisan, la posibilidad de acceder a los sitios; 1.2% del 51.8% son de este tipo), bots comerciales con fines de indexación (obtienen datos de las páginas web con fines mercadológicos; 2.9% del 51.8% son de este tipo), bots de motor de búsqueda (recopilan información para los algoritmos de búsqueda: 6.6% del 51.8% son de este tipo) y bots alimentadores (son bots que transportan contenido web para mostrar a los usuarios12.2% del 51.8% son de este tipo).

Los malignos son: bots respadores (se usan para extraer datos de manera no autorizadas; 1.7% del 51.8% son de este tipo), spammers (envían solicitudes al usuario que no pidió; 0.3% del 51.8% son de este tipo), bots usados por los piratas informáticos (buscan vulnerabilidades en los sitios web; 2.6% del 51.8% son de este tipo) y bots personificadores (se hacen pasar por seres humanos para saltarse controles y se usan para ataques de DDoS; 24.3% del 51.8% son de este tipo).

NOTICIA: ¿Una regulación para prevenir ciberataques de objetos zombies?

En octubre 21 del 2016, un proveedor de infraestructura de internet sufrió un ataque dando como resultado una suspensión en los servicios de importantes firmas con operaciones en internet como Twitter, Netflix, Amazon y Spotify. El ataque se concentró en la compañía estadounidense Dynamic Network Services Inc. (Dyn Inc.), un proveedor de Sistema de Nombres de Dominio (DNS) que permite a los usuarios de internet acceder a los sitios en internet. El ataque se concentró en una estrategia coordinada conocida como ataque de negación de servicio (DDos), que busca que diferentes terminales conectadas a internet busquen acceder al mismo sitio al mismo tiempo, negándole el acceso a los usuarios legítimos debido a que se sobrepasan la capacidad de administrar las solicitudes, por lo que el sitio en cuestión se bloquea y niega el acceso.

En esa ocasión el ataque se realizó desde objetos que permanecen conectados a internet, conocidos como objetos IoT (Internet of Things). En esa ocasión, usando bots personificadores, los piratas cibernéticos invadieron a los objetos que están conectados a internet, y que tienen poca seguridad, para atacar con solicitudes a Dyn.

Podría parecer que la lucha de las máquinas contra los humanos está todavía lejos y que el ataque de octubre pasado a Dyn fue de máquinas contra máquinas, pero los afectados al final y por espacio de horas hasta que se restableció los servicios fueron los usuarios.

Finalmente las visiones distópicas del futuro, plasmadas en la literatura y el cine, pueden que se alejen de la realidad actual pero por más que se le impongan reglas morales a los robots, como las “leyes de la robótica”, la programación que puede crear robots no es exclusiva de los que buscan crear programas inofensivos.

rarl

Comentários no Facebook