Bit

Disambiguazione – "Binary digit" rimanda qui. Se stai cercando cifra binaria, vedi sistema numerico binario.
Disambiguazione – Se stai cercando altri significati, vedi Bit (disambigua).
Il lancio di una moneta: un tipo di evento il cui esito può essere descritto con un singolo bit di informazione

In informatica e nella teoria dell'informazione, il bit è l'unità standard di misura dell'entropia, meglio nota come quantità di informazione.[1]

Il nome è una parola macedonia dei termini inglesi "binary" (binario) e "digit" (cifra).[2] Per questo motivo il termine bit viene colloquialmente utilizzato come sinonimo di cifra binaria, che però formalmente è un concetto distinto.[3] Complice delle occasionali confusioni tra bit e cifra binaria è anche il fatto che quest'ultima codifica esattamente 1 bit di informazione.

Il concetto di bit è stato introdotto nel 1948 da Claude Shannon, fondando la teoria dell'informazione.[4][5] In seguito furono proposti alcuni nomi alternativi come Binit e Bigit, che tuttavia non sono mai entrati nell'uso comune.[6] Nonostante la loro impopolarità questi termini compaiono occasionalmente in vari scritti come sinonimo di Bit.[7]

Lo stesso argomento in dettaglio: Entropia (teoria dell'informazione).

Nel suo articolo "A Mathematical Theory of Communication" Shannon fissa il problema fondamentale della comunicazione come quello di riprodurre ad certo punto, in modo esatto oppure approssimativo che sia, un messaggio selezionato ad un altro punto. In questo contesto egli evidenzia come l'aspetto significativo del problema dal punto di vista ingegneristico sia che il messaggio viene sempre selezionato da un set di possibili messaggi definito a priori.[5]
Da questa considerazione deriva l'intuizione della natura probabilistica dell'incertezza e quindi, dualmente, dell'informazione.

Dato il modello matematico di una sorgente di informazione discreta, risulta interessante poter misurare e quindi definire una grandezza per quanta informazione viene emessa da questa. Shannon affronta questo problema introducendo il concetto di quantità di informazione, o anche entropia per via della similarità con alcune formulazioni del concetto di entropia in meccanica statistica. [8]

 

Espressione dell'entropia di una sorgente d'informazione. Convenzionalmente si assume e . [9] [10]

Nell'articolo Shannon non fissa in modo prescrittivo una definizione precisa dell'unità di informazione. Tuttavia si può banalmente ricavare come corollario che 1 bit è la quantità di informazione necessaria e sufficiente a rimuovere l'incertezza relativa al realizzarsi di uno tra due eventi equiprobabili e mutualmente esclusivi, come ad esempio l'esito del lancio di una moneta.[11] In simboli:

Sia  una coppia di eventi indipendenti equiprobabili (  )   

Interpretazione

[modifica | modifica wikitesto]

Una quantità in bit può essere interpretata in 2 modi differenti: [12]

Le due interpretazioni sono duali. Per esempio assumiamo di avere un dato la cui entropia è pari a bit:

Se il valore del dato non è conosciuto allora è ragionevole interpretare l'entropia come misura di incertezza: ovvero il valore del dato potrebbe essere uno qualsiasi in un set di dimensione .[5]

Per rimuovere completamente questa incertezza sarà necessario accertarsi del valore effettivo del dato, e cioè equivalentemente scegliere un singolo valore tra quelli possibili.[5] Questa operazione implica ricevere bit di informazione. Alternativamente si può dire che il valore esatto "trasporta" ( o "possiede", o "rappresenta" ) bit di informazione.

Multipli e alternative

[modifica | modifica wikitesto]
Le singole voci sono elencate nella Categoria:Unità di informazione.
Lo stesso argomento in dettaglio: Ordini di grandezza (dati).
Multipli del bit
Prefissi SI Prefissi binari
Nome Simbolo Multipli Nome Simbolo Multipli
chilobit kbit 103 kibibit Kibit 210
megabit Mbit 106 mebibit Mibit 220
gigabit Gbit 109 gibibit Gibit 230
terabit Tbit 1012 tebibit Tibit 240
petabit Pbit 1015 pebibit Pibit 250
exabit Ebit 1018 exbibit Eibit 260
zettabit Zbit 1021 zebibit Zibit 270
yottabit Ybit 1024 yobibit Yibit 280

Essendo il bit un'unità di scala relativamente piccola risulta spesso poco ergonomica nel descrivere le quantità di informazione con cui spesso si ha a che fare nel mondo reale. Specialmente se si considerano i continui sviluppi della tecnologia e dell'era dell'informazione. Per questo motivo si è soliti adottare unità derivate che a vario titolo meglio si adattano a determinati usi.

Multipli diretti

[modifica | modifica wikitesto]

Esistono ambiti in cui risulta comodo utilizzare multipli diretti del bit. È il caso ad esempio dell'ingegneria delle telecomunicazioni e dei segnali più in generale.

Lo stesso argomento in dettaglio: Nibble.

Il nibble è un'unità equivalente a 4 bit. Questa unità è spesso utilizzata nella rappresentazione esadecimale, poiché un nibble contiene la stessa quantità di informazione di una cifra esadecimale.[13]

Lo stesso argomento in dettaglio: Byte.

Il byte con i relativi multipli è l'unità più utilizzata dal grande pubblico dopo la democratizzazione di internet. Questo è dovuto alla popolarità delle piattaforme PC orientate ai byte, che tuttora rappresentano la tipologia dominante.

Storicamente, un byte era il numero di bit necessari per codificare un carattere di testo all'interno di un computer (definizione dipendente quindi dall'architettura dell'elaboratore); oggi, tuttavia, assume sempre il significato di otto bit. Un byte può quindi rappresentare 28 = 256 distinti valori, come ad esempio i numeri interi tra 0 e 255, o tra -128 e 127. Lo standard IEEE 1541-2002 stabilisce che "B" (lettera maiuscola) è il simbolo che indica il byte. I Byte, ed i multipli di essi, sono sempre utilizzati per indicare la grandezza di file e la capacità di memorizzazione di computer.

Parola o Word

[modifica | modifica wikitesto]
Lo stesso argomento in dettaglio: Parola (informatica).

Nell'architettura dei calcolatori la Parola ( in inglese Word ) è la minima quantità di informazione processabile atomicamente da un processore. Il numero di bit all'interno di una parola è legata alla grandezza dei registri della CPU ed alla larghezza dei bus usati per il trasferimento dei dati. Alcune architetture possono operare atomicamente su sequenze di più parole.[14]

Blocchi o pagine

[modifica | modifica wikitesto]
Lo stesso argomento in dettaglio: Memoria virtuale e Memoria cache.

Nell'ambito dell'architettura dei calcolatori ed in particolare della gerarchia delle memorie si è soliti ragionare in termini di blocchi o pagine. La definizione precisa dei due termini dipende strettamente dall'architettura del calcolatore di riferimento.[15]

La memorie cache di un computer generalmente opera su blocchi di memoria che consistono di diverse "parole" consecutive. Queste unità sono chiamate "blocchi" o "linee" di cache.[16] Il sistema di memoria virtuale partiziona la memoria principale del computer in unità ancora più grandi, tradizionalmente chiamate "pagine".[17] Sulle moderne architetture PC è tipico trovare pagine di 4 KiB.[18]

  1. ^ Bit, in Treccani.it – Enciclopedie on line, Roma, Istituto dell'Enciclopedia Italiana.
  2. ^ Mackenzie 1980.
  3. ^ Bit, in Treccani.it – Vocabolario Treccani on line, Roma, Istituto dell'Enciclopedia Italiana.
  4. ^ History of Computing 1984.
  5. ^ a b c d Shannon 2001, p. 1.
  6. ^ History of Computing 1984, pp. 154-155.
  7. ^ (EN) Binit, su Oxford English Dictionary. URL consultato il 24 ottobre 2023;
    Binit, su Collins English Dictionary. URL consultato il 24 ottobre 2023;
    (EN) Binit, su Merriam-Webster Dictionary, Merriam-Webster. URL consultato il 24 ottobre 2023;
    (EN) J. C. Hancock e J. L. Holsinger, Some Useful Coding Techniques for Binary Communication Systems, Lafayette, Indiana, Purdue University, 1º gennaio 1962. URL consultato il 24 ottobre 2023;
    Anna Morpurgo e Annamaria Zanaboni, Lezione 2. Rappresentazione delle informazioni (PDF), in Stefano Andreon (a cura di), Slide dell'insegnamento di "Laboratorio di Informatica", Osservatorio Astronomico di Brera, 2002. URL consultato il 24 ottobre 2023.
  8. ^ Shannon 2001, pp. 9-14.
  9. ^ Il parametro non ha significato intrinseco e viene proposto da Shannon come termine "ausiliario" per facilitare la definizione dell'unità di misura. (Shannon 2001, p. 10)
    Nella pratica non viene mai usato come parte della formula dell'entropia, ma compare spesso all'esterno come costante di conversione: ad esempio per convertire da bit a byte.
  10. ^ La scelta di determina l'uso del bit come unità di misura. (Shannon 2001, p. 1)
    Sebbene Shannon ipotizzi anche l'uso di basi e quindi di unità alternative, la scelta del bit risulta particolarmente sensibile poiché ben si adatta all'uso oramai universale della teoria dell'informazione applicata ai sistemi elettronici digitali.
  11. ^ Shannon 2001, p. 19.
  12. ^ "Grandezze della forma [...] giocano un ruolo centrale nella teoria dell'informazione come misure di informazione, scelta e incertezza". (Shannon 2001, p. 10);
    Scelta ed incertezza sono misure equivalenti.
  13. ^ Nate Williams, What Is a Nibble in Computing, and What Does It Equal?, su history-computer.com, History-Computer. URL consultato il 30 settembre 2023.
  14. ^ Patterson, Hennessy 2015, p. 57.
  15. ^ Patterson, Hennessy 2015, capitolo 5.
  16. ^ Patterson, Hennessy 2015, p. 325.
  17. ^ Patterson, Hennessy 2015, pp. 374-375.
  18. ^ Patterson, Hennessy 2015, p. 376.

Voci correlate

[modifica | modifica wikitesto]

Altri progetti

[modifica | modifica wikitesto]

Collegamenti esterni

[modifica | modifica wikitesto]
Controllo di autoritàGND (DE4145760-2