Os robôs digitais — ou bots — rivalizam e muitas vezes ultrapassam o tráfego de dados dos humanos na web. Isso já vem acontecendo desde 2012 e em 2016 as máquinas mais uma vez atuaram com mais intensidade do que nós. A má notícia é que isso vem ocorrendo devido ao aumento dos cibercrimes e a boa é que a causa também está atrelada aos serviços utilizados por milhares de pessoas no dia a dia, a exemplo dos mecanismos de buscas.
Em 2013, os bots dominaram o tráfego de dados com 61,5% de presença. Nos dois anos seguintes, o número caiu, mas voltou a subir na temporada passada, com 51,8% de máquinas digitais na web
A empresa de pesquisa e consultoria de mídia Axios divulgou um estudo que mostra a relação entre os dois lados do uso de informações na rede, com números baseados em mais de 16,7 bilhões de visitas em cerca de 100 mil domínios aleatórios. O resultado: no ano passado, 51,8% do fluxo estiveram atrelados às inteligências artificiais, enquanto 48,2% foram manuseados por gente como você e eu, de carne e osso.
Gráfico mostra resultado das últimas pesquisas da Axios
Bad bot/good bot
Uma das coisas que chamam a atenção na pesquisa é o aumento dos bots considerados bons e a manutenção dos ruins, em comparação com 2015. Os “mocinhos” seriam aqueles que trabalham para facilitar nossas vidas, como os “spiders” da Google, usados para expandir a teia de resultados de algo que procuramos; e os “feed fetchers”, alimentadores do Facebook que atualizam os Feeds de Notícias em ambiente móvel. Ambos consumiram 8% dos dados levantados na temporada anterior.
Já os “bad bots” são aqueles que tentam capturar dados ou se passar por pessoas e instituições, enfim, os que exploram vulnerabilidades, sejam digitais ou reais. O estudo revela que a maioria dos 28,9% tenta personificar sites e invadir sistemas de segurança.
Os bots "spiders", ou indexadores automáticos, são consideros "do bem"
Em dezembro, a empresa de segurança White Ops descobriu a maior rede de cibercrimes da história, chamada de Methbot, responsável por roubar milhões de dólares de anúncios. “Eles são capazes de camuflar todas as métricas de publicidade, incluindo cliques, visibilidade e até mesmo uma simples assinatura de email”, conta o diretor da companhia, Mark Schlosser.
Muito prejuízo
Até agora, essa “supremacia” das máquinas no consumo de dados na web não tem sido vista com bons olhos, principalmente pela Associação Nacional de Anunciantes (The Association of National Advertisers) dos Estados Unidos. E com razão: a estimativa é de que os “bad bots” estejam custando mais de US$ 7 bilhões aos bolsos das empresas anualmente.
Os ataques são sofisticados e vêm ocorrendo no espaço programático. Para combater esses robôs malignos, as agências estão instalando rastreadores para verificar inventários e para se comunicar com clientes, entre outras ações. A expectativa é de que o tráfego com máquinas digitais aumente nos próximos anos e a esperança é de que, claro, isso aconteça com maior presença dos “good bots”.
Fontes