I computer come Pitagora: “Tutto è numero” Digitalizzare un testo significa far corrispondere ad ogni suo segno un numero

Sembra che il motto dei pitagorici fosse “Tutto è numero”. Per i computer è di certo così, poiché ogni cosa che essi trattano (compresi i testi, le immagini ed i suoni) viene elaborata sotto forma numerica. La parola “informatica” viene dalla contrazione di “INFORmazione autoMATICA”. I computer trattano le informazioni in maniera automatica e tali informazioni (numeri, testi, immagini, suoni) sono tutte codificate in sequenze di zeri ed uni, cioè in numeri binari.

Le informazioni devono venire digitalizzate per poter essere trattate al computer. Si parla infatti di rivoluzione digitale e di cultura digitale. Digitale viene dalla parola inglese “digit”,  che significa cifra, che a sua volta deriva dal latino “digitus”, che significa dito. È esperienza quotidiana rappresentare i numeri con le dita ed abbiamo anche visto come con le stesse dita possiamo rappresentare i numeri binari. Sappiamo già che le cifre in un numero binario possono assumere il valore di 0 (zero) o di 1 (uno).

In informatica la cifra binaria si chiama “bit” ed è evidente che si tratta della misura più piccola dell’informazione. Il bit ci informa relativamente ad una scelta tra due possibili alternative: 1/0, vero/falso, acceso/spento, sì/no, giusto/sbagliato, bianco/nero… yin/yang (ecco spiegato il simbolo “taoista” dei CoderDojo). Anche il termine bit corrisponde alla contrazione di un’espressione: in questo caso si tratta dell’espressione inglese, “BInary digiT”, cioè “cifra binaria”, appunto. Codificare un testo, digitalizzarlo, è operazione relativamente semplice, anzi quasi immediata, se pensiamo che in alcune culture i segni delle lettere vengono usati anche per le cifre.

Uno degli argomenti del libro Computer science – Unplugged è la digitalizzazione dei testi. Per digitalizzare un testo, che altro non è che una sequenza di segni, bisogna solamente far corrispondere ad ognuno dei suoi segni (lettere maiuscole, lettere minuscole, segni d’interpunzione, lo spazio) un numero. Ciò e possibile quando il numero di segni usati per la scrittura è relativamente piccolo e comunque finito. Le scritture alfabetiche rispondono meglio di altre a questa caratteristica, essendo composte da un insieme di segni base molto piccolo.

Abbiamo già visto che i possibili valori che può assumere una sequenza di 8 bit è 256. Un numero binario di 8 bit è chiamato in informatica byte. Il byte è così un’altra unità di misura dell’informazione. Esso indica la quantità di informazione corrispondente alla scelta fra 256 alternative diverse.

Con un byte possiamo rappresentare fino a 256 segni e ciò è sufficiente per qualsiasi lingua alfabetica, anzi i 256 numeri possibili sono più che sufficienti e ne lasceremo alcuni senza che corrispondano ad alcun segno. Il codice ASCII è stato costruito seguendo l’idea che ho appena descritto. ASCII è un acronimo in lingua inglese: “American Standard Code for Information Interchange” (in italiano “Codice Standard Americano per lo Scambio di Informazioni”).


Massimo Messina

2 comments on “I computer come Pitagora: “Tutto è numero” Digitalizzare un testo significa far corrispondere ad ogni suo segno un numero
  1. Se posso permettermi il tu, sei il benvenuto, Costantino. Ti invito a leggere gli altri post della rubrica Età dello “sviluppo” su Buzzing. Ogni critica, considerazione o suggerimento saranno benvenuti.

Comments are closed.