La rebelión de las máquinas… en la Red
Mucho se ha hablado sobre cómo gran parte de los usuarios de redes sociales no son personas reales, sino bots diseñados para obtener o derramar información a través de publicaciones programadas. Pero este tipo de “usuarios” no limitan sus apariciones a los confines de las redes sociales.
De hecho, un estudio de Incapsula, una compañía de análisis de tráfico Web, reveló que 61.5 por ciento de los visitantes a los sitios que manejan en realidad son bots.
Cada vez más máquinas
Ana Paulina Valenciahttp://www.youtube.com/watch?v=Ror6nVSftu0
Mucho se ha hablado sobre cómo gran parte de los usuarios de redes sociales no son personas reales, sino bots diseñados para obtener o derramar información a través de publicaciones programadas. Pero este tipo de “usuarios” no limitan sus apariciones a los confines de las redes sociales.
De hecho, un estudio de Incapsula, una compañía de análisis de tráfico Web, reveló que 61.5 por ciento de los visitantes a los sitios que manejan en realidad son bots.
Cada vez más máquinas
La versión del año pasado de este mismo reporte arrojó como resultado que los bots componían un 51 por ciento de los internautas, lo que significa que en un año su presencia aumentó en un 10 por ciento.
En términos absolutos, es decir sin comparársele a la cantidad de humanos (que ahora es de 38.5 por ciento), el incremento en el tráfico total que proviene de bots fue de 21 por ciento.
Del número total de visitas, el estudio determinó que 5 por ciento proviene de “scrapers” (“raspadores”), cuya función es obtener datos y duplicar contenido, como correos electrónicos que después se utilizarán para enviar spam.
Una cantidad ligeramente menor, 4.5 por ciento de las visitas, se trata de herramientas para hackear.
Estos son los bots que toman información sobre tarjetas de crédito y los que descargan malware (software malicioso a las computadoras). También borran contenido en ciertos sitios Web.
En este caso, hubo una disminución de cerca de 10 por ciento respecto al 2012, lo que es una mejora significativa.
Los bots que dejan spam en el área de comentarios de las páginas, como ligas dañinas o mensajes irrelevantes, solo representan el 0.5 por ciento del total de visitantes.
El resto del 30.5 por ciento de los “clicks” que provienen de fuentes dañinas, el 20.5 por ciento, viene de otro tipo de estafadores que, por lo general, pretenden ser compañías legítimas.
El CEO de Incapsula, Gur Shatz, expresó su preocupación por la falta de protección en sitios Web actuales en una entrevista con CloudTweaks.
“Lo inadecuado de las defensas, aunadas al creciente valor de la información que puede ser robada, representan una enorme oportunidad para los cibercriminales”, manifestó Shatz.
Según Gur, tanto los dispositivos personales como los usados para fines profesionales son una fuente “tremenda” de inteligencia, que “guardan más datos (y más precisos) que nunca” pero todavía “usan medidas de seguridad pasadas de moda”.
Y agregó que uno de los principales problemas es que la compañías sirven como medios para robar esta información sin saberlo, cuando los bots atacan sus páginas Web.
“Aún los negocios más pequeños son vulnerables”, declaró el director ejecutivo de Incapsula.
Hay de bots a bots
A pesar de las razones para preocuparse, el incremento en la población de bots se atribuye a una mayor cantidad de visitas realizadas por bots “buenos”.
Estos, específicamente, están presentes 11 por ciento más que el año pasado. Así que ahora representan el 31 por ciento de los accesos a sitios Web.
Los bots benéficos son aquellos que, aunque fueron creados para realizar acciones predeterminadas por un programa, no buscan hacer daño con ellas, sino facilitar tareas a los humanos.
Los buscadores, por ejemplo, con frecuencia utilizan bots para realizar visitas a millones de sitios Web para verificar si hay contenido nuevo que deban agregar a sus índices.
En el caso de Google se trata de “Googlebot” y Alexa (compañía subsidiaria de Amazon que proporciona información sobre tráfico en Internet y un importante ranking de los sitios más visitados), usa el popular Alexa Crawler.
Si no fuera por ellos, sería imposible tener resultados actualizados que cubrieran el largo y ancho del Internet.
Según la compañía que realizó el reporte, este tipo de programas realizan visitas que ascienden hasta 50 (a cada sitio) por día.
Además, durante este año, los bots buenos existentes en el 2012 incrementaron su actividad para poder ofrecer un mejor servicio.
Y entre sus actividades más comunes está visitar los sitios con mayor frecuencia.
Estos programas también sirven a sitios como Wikipedia para detectar vandalismo, la falta de referencia confiables o si parte de la información es incorrecta.
También existen bots donde menos lo esperamos.
Algunos sitios de apoyo emocional (como líneas de emergencia para personas en momentos de crisis o suicidas) utilizan bots que detectan términos alarmantes y ofrecen palabras de aliento, o contactan a humanos si lo consideran necesario.
Con frecuencia, incluso, cuando recurrimos a ayuda técnica en servicios de chat en realidad estamos interactuando con un software.
Esto no debería sorprendernos pues, como mencionamos la semana pasada, los bots se encuentran hasta en llamadas telefónicas de compañías de telemarketing.
Y están tan bien “entrenados” que aseguran ser humanos si se les cuestiona.
Aunque es evidente que la presencia de bots creados con intenciones dañinas debe preocuparnos y la lucha contra ellos debe continuar, se debe dejar atrás la concepción de que todo “robot” es una amenaza en potencia.
Y considerando que la mitad de los bots son “buenos”, podemos esperar que estos sigan aumentando para facilitar la experiencia humana en la Red.