Origine del computer in sintesi

Origine del computer si dive ad un’idea di Alan Turing, in quanto fu lui il primo a concepire una macchina la cui unica funzione era quella di manipolare ed elaborare le informazioni; era il 1936. L’idea di Turing fu poi sviluppata da Claude Shannon che elaborò la teoria matematica della comunicazione, uno dei più importanti documenti scientifici del XX secolo; era il 1948. Ecco un viaggio nella genialità di due uomini che hanno creato le premesse allo sviluppo delle tecnologie informatiche attuali.

Alan Turing (1913-1954) elaborò per primo l’idea alla base del computer e concepì una macchina la cui unica funzione era quella di manipolare ed elaborare informazioni. L’idea emerse come conseguenza di un brillante ragionamento. Ai tempi di Turing, il significato di computer era completamente diverso dall’attuale, ossia ci si riferiva ad una persona in carne ed ossa che eseguiva calcoli aritmetici con carta e penna, per calcolare gli interessi o per determinare l’importo delle tasse o altro. Turing cercò di capire se un certo processo matematico, eseguito dall’uomo, poteva essere effettuato in maniera efficiente da una macchina, alla quale gli fossero impartite determinate istruzioni. Turing capì che qualunque calcolo ha due ben distinti aspetti essenziali: i dati e le istruzioni su cosa fare con i dati. Egli avrebbe allora dovuto trovare il modo con cui le macchine avrebbero potuto fare calcoli. Elaborò, allora, l’idea secondo la quale una moltitudine di compiti può essere eseguita da una macchina dandole una lunga sequenza di istruzioni. Questa è la più grande eredità di Alan Turing.

Claude Shannon (1916-2001) scoprì la natura fondamentale dell’informazione ed il processo di comunicazione in tutte le sue molteplici forme. E’ sua la teoria matematica della comunicazione, uno dei più importanti documenti scientifici del XX secolo, pubblicato nel 1948; questo documento non solo ha gettato le basi della rete di comunicazione del mondo moderno, ma ci ha anche fornito nuove intuizioni sul linguaggio umano. Fu Shannon a dare all’informazione una propria unità di misura, il bit, ossia la cifra binaria (0 e 1). Egli si rese conto che trasformare l’informazione in cifre binarie sarebbe stato un atto immensamente potente perché avrebbe reso le informazioni gestibili, esatte, controllabili, precise e universali. Il bit è la più piccola quantità di informazione che ci sia; attraverso una sequenza di 0 ed 1 il computer riceve le istruzioni su cosa fare. Grazie al codice binario l’informazione può essere memorizzata su qualsiasi supporto. Tutto questo, però, non sarebbe stato possibile senza gli studi sull’elettricità.

Cinzia Malaguti

Videografia: video documentario Ordine e disordine – La storia dell’informazione su Rai Play