Bit (binary digit)

In Informatica con il termine bit (binary digit) si indica una cifra binaria (o cifra del sistema di numerazione binario, ovvero rappresenta uno dei due simboli del sistema numerico binario: 0 e 1) con cui si rappresenta l’unità elementare dell’informazione ed anche l’unità di misura del contenuto dell’informazione in un messaggio (indicata con: b). Infatti, nella trasmissione o nella elaborazione di dati ed informazioni digitali, il bit è la più piccola quantità di informazione che può essere trattata e trasmessa. In altre parole, il bit rappresenta l’informazione contenuta in una cifra binaria.

Dato che in generale, le informazioni vengono comunemente trasmesse in modo discreto con stringhe di lunghezza n, che utilizzano cioè n segnali, che possono assumere b stati diversi, ognuno con la stessa probabilità; si può quindi scegliere una informazione tra \(k=b^n\) informazioni diverse. Viceversa, per identificare una informazione k occorrono \(\log_b k\) segnali. Quest’ultima grandezza dà la misura dell’informazione. Se si ha a disposizione un segnale un segnale che può assumere due soli stati (0 oppure 1), si ha il minimo di informazione realizzabile, poiché \(k=2^1=2\) data da \(\log_2 2=1\) bit.

A partire da questa informazione elementare detta bit (compressione dall’inglese di binary digit) è possibile costruire informazioni più complesse sotto forma di sequenze finite di zero e di uno. Attraverso la codifica binaria si è in grado di rappresentare caratteri, numeri, istruzioni di programmi ma anche immagini, suoni e video. Tutte le informazioni gestite da un computer sono quindi numeri in forma binaria.

Il primo multiplo del bit è il byte che è formato da una sequenza di 8 bit: 01010000. Con una sequenza di 8 bit possiamo codificare, per mezzo del codice ASCII (American Standard Code for Information Interchange), fino a 256 caratteri. Quando digitiamo un carattere sulla tastiera del calcolatore inviamo in realtà una sequenza di 8 bit. Vediamo alcuni esempi della codifica binaria dei caratteri (codice ASCII).

Mebibyte (mega-binary-byte)

Con il termine mebibyte (MiB) si definisce l’unità di misura dell’informazione o della quantità di dati.

Un mebibyte è un multiplo del byte, corrispondente a \(2^{20} = 1.048.576\) byte, ed è spesso e volentieri scambiato (o confuso soprattutto in ambito commerciale) con il megabyte, che rappresenta la potenza di 10 più vicina al suo valore, ossia \(10^6 = 1.000.000\).

L’errore percentuale che si commette nel considerare il megabyte al posto del mebibyte è di circa il 4,9% (o un errore assoluto di: 48.576 byte).