Bit é a abreviação de Binary Digit (digito binário) e a menor unidade de informação de um computador. Um bit tem somente um valor (que pode ser 0 ou 1). Vários bits combinam entre si e dão origem a outras unidades, como bytes, mega, giga e tera.
Todas as informações processadas por um computador são medidas e codificadas em bits. Tamanhos de arquivos são medidos em bits, taxas de transferência são medidas em bit, informações na linguagem do usuário são convertidas em bits para que o computador “entenda”, etc.
Outros usos da unidade
Bits também são utilizados para a classificação de cores de uma imagem. Por exemplo: uma imagem monocromática tem 1 bit em cada ponto, enquanto uma imagem de 8 bits suporta até 256 cores.
Certamente você já ouviu falar em sistemas de 32 bits ou 64 bits. Este número indica a capacidade que o computador tem de processar a quantidade de bits indicada de uma só vez. Também pode significar o número de bits utilizados para representar um endereço na memória.
História da palavra
A palavra bit foi utilizada pela primeira vez na década de 30, surpreendentemente, para designar partes de informação (bits of information, em inglês). Simplificando o raciocínio, um bit é exatamente isso: uma combinação de dois dígitos que se junta com outros dígitos do mesmo tipo para construir a informação completa.
Porém, a definição de bit como ficou muito conhecida até hoje foi empregada em 1948 pelo engenheiro Claude Shannon. Naquele ano, Shannon elaborou o artigo “A Mathematical Theory of Communication” (Uma Teoria Matemática da Comunicação) e usou a palavra para designar o dígito binário.
Categorias