bit
- Contrazione della locuzione inglese binary
digit, rappresenta l’unità di misura del contenuto di informazione di un
dato o di un messaggio. Il termine bit viene impiegato con significati
leggermente diversi a seconda che esso si riferisca al campo
dell’informatica o a quello della teoria dell’informazione. Più
precisamente, in informatica, si definisce bit un simbolo del sistema
binario (0 oppure 1) associato tipicamente al valore assunto dalla porta
logica che lo ha generato. Nei circuiti digitali, infatti, i segnali sono
normalmente disponibili in sole due condizioni: basso o alto, carico o
scarico, acceso o spento. A tali valori vengono associati i valori logici 0
e 1.
- Per estendere l’uso dell’unità binaria sono state
introdotte grandezze che raggruppano un numero di stringhe binarie pari a
una potenza in base 2. I più importanti
sono detti nibble (4
bit), byte (8
bit) e word (16,
32 o 64 bit a seconda dell’architettura). Dal punto di vista della teoria
dell’informazione (introdotta da Claude Shannon
negli anni Quaranta del secolo scorso), un bit rappresenta la possibilità di
scelta tra due alternative equiprobabili, cui vengono associati i simboli
numerici 0 e 1. Il bit è anche impiegato per valutare la capacità di
informazione. In tal caso l’unità di misura della velocità di trasmissione
delle informazioni è il bit per secondo (bit/s).
-
Treccani - Enciclopedia della Scienza e della Tecnica -
2008
●
PDF, Microsoft Excel,
programmazioni e altro
●
.doc .docx .jpg .xls .xlsx
. . . . . formati ed estensioni (un labirinto?)
© xigro (P.Biundo)
2008 ~ 2013