Cientistas da Universidade de San Diego, na Califórnia, apresentaram os resultados de sua mais recente pesquisa: a quantidade de dados que foi processada pelos cerca de 27 milhões de servidores existentes no mundo em 2008. O total é de 9,57 zettabytes, que podem ser convertidos em mais de 10 milhões de terabytes, a unidade de medida de dados mais avançada que conseguimos alcançar em mídias atualmente.
Para efeito de comparação, seria possível armazenar toda essa informação em uma pilha de livros que teria a extensão de vinte vezes o trajeto entre a Terra e Netuno. O estudo foi feito a partir de pesquisas de rendimento de máquinas, relatórios de indústrias, entrevistas com especialistas em tecnologia, consultas a vendedores da área e diversas outras fontes. Ainda segundo o documento final, o número de dados processados dobra a cada dois anos.
Segundo um dos autores do projeto, a maior parte do que foi contabilizado são informações que sequer são vistas pelos usuários, pois são rapidamente criadas, utilizadas e descartadas para realizar algum processo maior. Mesmo assim, são todas vitais para o funcionamento da rede como a conhecemos hoje. Além disso, outro ponto citado é a maior adesão à processos como a virtualização e a computação em nuvens, com dados cada vez mais sendo armazenados digitalmente por grandes companhias.
A equipe alerta também que o número pode ser ainda maior do que o publicado: algumas empresas, como a Google e a Microsoft, por exemplo, possuem servidores próprios e com alto fluxo de dados, tornando os cálculos ainda mais complexos.
Categorias