PRIMA PARTE
01 – LEIBNIZ
Gottfried Wilhelm Leibniz (1646 – 1716) fu un uomo di straordinario genio. A 6 anni apprese il latino da solo leggendo Tito Livio, a 10 scoprì la logica aristotelica, a 15 anni si iscrisse all’università, si laureò in filosofia a 17 ed ottenne un dottorato in giurisprudenza a 20.
Fu diplomatico, storico, economista, inventore, filosofo, teologo, fisico, matematico, logico e altro ancora.
Calcolo binario
Possiamo riconoscere che anche altri si avvicinarono al concetto di aritmetica binaria. Ricordiamo, ad esempio, Francesco Bacone che utilizzava un sistema cifrato basato su due soli simboli e il vescovo di Vigevano, Juan Caramuel y Lobkowitz (1606 - 1682), che fu il primo a rappresentare i numeri in forma binaria usando due simboli "a" e "b". Il numero 13, per esempio, lo rappresentava come aaba, equivalente al numero binario 1101.
Tuttavia fu Leibniz a rappresentare i numeri binari usando finalmente i simboli più semplici da utilizzare, le cifre "0" e "1", e, soprattutto, fu Leibniz a descrivere compiutamente le regole dell'aritmetica binaria.
Liebniz arrivò ad ipotizzare la creazione di una sorta di linguaggio universale, basato sui fondamenti della logic, la Characteristica universalis che rappresenta un importantissimo passo verso l'Intelligenza Artificiale perché, secondo il progetto di Leibniz, doveva servire a trasformare il ragionamento in calcolo.
La Stepped Reckoner
Ispirato dalla macchina di Pascal, Leibniz realizza, nel 1671, una calcolatrice meccanica in grado di effettuare le quattro operazioni e l'estrazione di radice chiamata Stepped Reckoner (calcolatrice a scatti).
È notevole il fatto che essa abbia introdotto un meccanismo, chiamato traspositore, che corrisponde esattamente ai registri dei moderni computer elettronici. Il funzionamento, basato principalmente sulla "ruota di Leinitz" viene brevemente descritto più avanti.
Leibniz, colpito dalla cristallina semplicità con cui si lasciano maneggiare i numeri binari, concepì una macchina in grado di eseguire le quattro operazioni con l'aritmetica binaria. Se le regole di questa aritmetica sono il software, la calcolatrice binaria di Leibniz è allora un hardware in cui l'uno e lo zero sono materializzati nella presenza o assenza di una pallina in una determinata posizione.
Rendendosi però conto che la numerazione binaria sarebbe difficilmente entrata nell'uso quotidiano, Leibniz voleva integrare la sua invenzione con un convertitore decimale-binario, che preparasse l'input, e uno binario-decimale, per rendere l'output leggibile in decimale; malgrado diversi tentativi, questa impresa non riuscì e la calcolatrice binaria cadde nel dimenticatoio fin quando Ludolf von Mackensen, storico della scienza, ne costruì nel 1966 un modello perfettamente funzionante.
Ma il contributo più importante che Leibniz ci ha lasciato, e che in qualche modo sottende tutta la sua opera, è stato il suo grande e incompiuto progetto: definire un insieme di regole per formalizzare il ragionamento logico deduttivo. Era il sogno del calculus raziocinator, espresso con i simboli di una characteristica universalis. Partendo da pochi principi generali e condivisi da tutti, egli pensava, qualsiasi questione controversa sarebbe stata risolta semplicemente applicando quelle regole; e il tutto, beninteso, avrebbe potuto farlo anche una macchina.
Possiamo trovare un riscontro reale di questo pensiero nella moderna programmazione dove, con un numero limitato di istruzioni macchina si può costruire un numero potenzialmente infinito di programmi.
02 – BOOLE
George Boole (Lincoln, 2 novembre 1815 – Ballintemple, 8 dicembre 1864) è stato un matematico e logico britannico, ed è considerato il fondatore della logica matematica. La sua opera influenzò anche settori della filosofia.
A causa dello stato di povertà della sua famiglia, fu praticamente un autodidatta, e studiò il greco, il latino, il francese, il tedesco, l'italiano oltre alla matematica fin da giovane sui testi di Laplace e Lagrange. Assillato da problemi economici, svolse varie attività. Morì all'età di soli 49 anni per una grave forma febbrile (polmonite) causata da un banale raffreddore. Incoraggiato ed indirizzato da Duncan Gregory, curatore del Cambridge Mathematical Journal, Boole si dedicò allo studio di metodi algebrici per la risoluzione di equazioni differenziali e la pubblicazione dei suoi risultati sulla suddetta rivista gli fece ottenere una medaglia della Royal Society e, successivamente, nel 1849, la nomina alla cattedra di matematica al Queen's College di Cork. In questa sede egli insegnò per il resto della sua vita.
Con l'opera The Mathematical Analysis of Logic (del 1847), scritta sulla scia della polemica insorta fra Augustus De Morgan e Sir William Hamilton sulla quantificazione del predicato, propose una sua interpretazione del rapporto fra matematica, logica e filosofia che prevedeva un'associazione tra logica e matematica al posto di quella fra logica e metafisica; Boole considerava la logica alla stregua della scienza delle leggi dei simboli attraverso i quali si esprimono i pensieri, e applicò parte della filosofia algebrica cantabrigense ad un settore inesplorato come quello della logica formale.
Nel 1854 pubblicò la sua opera più importante, indirizzata alle leggi del pensiero, con la quale propose una nuova impostazione della logica: scopo dell'opera fu quello di studiare le leggi delle operazioni mentali alla base del ragionamento esprimendole nel linguaggio simbolico del calcolo e di istituire, di conseguenza, una disciplina scientifica della logica sorretta da un metodo; dopo aver rilevate le analogie fra oggetti dell'algebra e oggetti della logica, ricondusse le composizioni degli enunciati a semplici operazioni algebriche. Con questo lavoro fondò la teoria di quelle che attualmente vengono dette algebre di Boole (o, semplicemente, algebra booleana). Pur mantenendo distinte le operazioni mentali da quelle algebriche, la scienza della logica nella forma algebrica dall'algebra in quanto settore della matematica, le leggi logiche dai settori delle scienze naturali, il compito di Boole fu quello di travestire la logica con un abito matematico algebrico.
Successivamente si dedicò alle equazioni differenziali, argomento cui dedicò nel 1859 un testo che ebbe molta influenza in materia. Studiò anche il calcolo delle differenze finite, pubblicando nel 1860 il trattato Treatise on the Calculus of Finite Differences, e problemi generali del calcolo delle probabilità. Inoltre fu tra i primi ad esaminare proprietà fondamentali dei numeri, come la proprietà distributiva, in quanto proprietà in grado di caratterizzare alla base alcune teorie algebriche.
I suoi lavori matematici gli procurarono molti riconoscimenti. Coltivò anche molti interessi nella letteratura e nella filosofia: Aristotele, Cicerone, Dante e Spinoza erano i suoi autori preferiti.
Primo estimatore e continuatore della sua opera fu Augustus de Morgan. L'opera maggiore di Boole è stata la base, grazie a Claude Shannon, che ha riconosciuto la coincidenza tra il funzionamento dei circuiti commutatori e la logica proposizionale, per gli studi sui circuiti elettronici e sulla commutazione e ha costituito un passo importante verso la concezione dei moderni computer.
Nel campo della logica i suoi più grandi meriti sono stati l'applicazione del calcolo simbolico alla logica e il superamento del modello aristotelico e della Scuola in quanto non sufficienti a sorreggere l'impalcatura della logica stessa.
03 – BABBAGE
Charles Babbage (Londra, 26 dicembre 1791 – Londra, 18 ottobre 1871) è stato un matematico e filosofo britannico, scienziato proto-informatico che per primo ebbe l'idea di un calcolatore programmabile. Nel mondo dell'informatica è conosciuto grazie alle sue macchine: della prima, la macchina differenziale, fu realizzato un prototipo imperfetto mentre la seconda, la macchina analitica, fu solo progettata.
Parti dei meccanismi incompleti di Babbage sono in mostra al London Science Museum. Nel 1991, lavorando a partire dai suoi progetti originali, fu completata una macchina differenziale perfettamente funzionante, assemblata seguendo gli standard disponibili nel XIX secolo, il che sta ad indicare che la macchina di Babbage avrebbe potuto funzionare.
Primi anni
Nato a Londra, fu studente al Trinity College e al Peterhouse di Cambridge. Laureatosi a Cambridge nel 1814, nello stesso anno sposò Georgiana Whitmore. Ebbero otto figli, di cui solo tre sopravvissero fino a raggiungere l'età adulta. La signora Babbage morì nel 1827.
Progettazione dei calcolatori
Trovandosi di fronte all'alto numero di errori di calcolo delle tavole matematiche, Babbage pensò di trovare un metodo grazie al quale queste potessero essere calcolate da una macchina, non soggetta agli errori, alla stanchezza e alla noia in cui potevano incorrere i calcolatori umani. Questa idea gli venne già nel 1812. Sembra che Babbage sia stato influenzato da tre fattori: avversione per il disordine, familiarità con le tavole logaritmiche e il lavoro sulle macchine per il calcolo portato avanti da Wilhelm Schickard, Blaise Pascal e Gottfried Leibniz. Nel 1822, in una lettera a Sir Humphrey Davy sull'applicazione di macchine al calcolo e alla stampa di tavole matematiche, Babbage discusse i principi di un motore di calcolo.
Macchina differenziale
Babbage presentò il modello di quella che lui chiamò una macchina differenziale (Difference Engine) alla Royal Astronomical Society il 14 giugno 1822 in un lavoro intitolato Note on the application of machinery to the computation of astronomical and mathematical tables. Il suo scopo era quello di creare tabelle di polinomi utilizzando un metodo numerico chiamato il "metodo delle differenze". La sua idea fu approvata e ciò gli permise di ricevere un fondo di 1500 sterline dal governo britannico nel 1823. La Royal Astronomical Society lo premiò con la medaglia d'oro nel 1824.
La costruzione di questa macchina iniziò ma non fu portata a termine. Due cose andarono male, la prima fu che a causa dell'attrito interno e degli ingranaggi disponibili a quel tempo, non sufficientemente buoni per realizzare i modelli, le vibrazioni rimasero un problema costante. L'altra fu il continuo cambio d'idea riguardo al progetto della macchina. Un'ulteriore possibile questione furono le discussioni con i meccanici assunti per il lavoro. Fino al 1833 furono spese 17.000 sterline senza alcun risultato soddisfacente. Il taglio dei finanziamenti da parte del governo inglese lo indusse a scrivere le celebri Reflections on the Decline of Science in England, and some of its Causes.
Macchina analitica
Tra il 1833 e il 1842 Babbage provò di nuovo: questa volta, cercò di costruire una macchina che fosse programmabile per eseguire ogni genere di calcolo, non solo quelli relativi alle equazioni polinomiali. Questa era la macchina analitica. Il progetto era basato sul telaio di Joseph Marie Jacquard, che usava schede perforate per determinare come dovesse essere la trama del tessuto. Babbage adattò questo progetto in modo che generasse operazioni matematiche.
La Macchina Analitica aveva dispositivi di ingresso basati sulle schede perforate, come nel progetto di Jacquard, un processore aritmetico che calcolava numeri, una unità di controllo che determinava che fosse eseguito il compito corretto, un meccanismo di uscita ed una memoria dove i numeri potevano essere mantenuti in attesa del loro turno di elaborazione. Questo dispositivo fu il primo computer al mondo. Un suo progetto concreto venne alla luce nel 1837; tuttavia, in parte a causa di difficoltà simili a quelle incontrate con la Macchina Differenziale, in parte a causa dei conflitti con i meccanici che stavano costruendo i componenti (e che li tennero come merce di scambio in quella che sembra essere stata una disputa sindacale in corso), la Macchina non fu mai costruita. Nel 1842, a seguito di ripetuti tentativi a vuoto di ottenere sovvenzioni da parte del Ministero del Tesoro, Babbage si rivolse a Sir Robert Peel per richiedergli sovvenzioni. Peel rifiutò e offrì invece a Babbage un cavalierato. Babbage a sua volta rifiutò l'offerta. La questione a questo punto ebbe termine.
Babbage in effetti ricevette un sostegno non trascurabile da un'altra fonte. Lady Ada Lovelace venne a conoscenza degli sforzi di Babbage e vi si interessò molto. Promosse attivamente la macchina analitica e scrisse diversi programmi in quello che oggi chiameremmo il Linguaggio assembly della macchina analitica, che tuttavia non furono mai eseguiti effettivamente. Ada Lovelace è quindi considerata il primo programmatore di computer al mondo, almeno in senso teorico.
Ada Lovelace
Augusta Ada Byron (Londra, 10 dicembre 1815 – Londra, 27 novembre 1852) è stata una matematica inglese, meglio nota come Ada Lovelace, nome che assunse dopo il matrimonio con William King, Conte di Lovelace.
Ada era figlia del poeta Lord Byron e della matematica Annabella Milbanke. Il padre abbandonò moglie e figlia pochi mesi dopo la sua nascita, e non le rivide mai più.
Su iniziativa della madre, terrorizzata dall'idea che Ada potesse dedicarsi alla poesia come suo padre, venne educata all'età di 17 anni in matematica da Mary Somerville, che aveva tradotto in inglese i lavori di Pierre Simon Laplace e aveva scritto inoltre dei testi utilizzati a Cambridge. La Somerville incoraggiò Ada nel proseguire i suoi studi matematici e tentò inoltre di farle apprendere i principi fondamentali della matematica e della tecnologia ponendoli in una dimensione più vicina alla sfera filosofica e poetica. Augustus De Morgan, professore alla University of London, si occupò negli anni successivi di introdurre Ada a studi di livello più avanzato, inconsueto per una donna del suo tempo, di algebra, di logica, di calcolo. Ada era anche dedita alla musica, in particolare amava suonare l'arpa.
Il 5 giugno 1833, ad un ricevimento tenuto dalla Somerville, Ada ebbe modo di incontrare Charles Babbage, all'epoca vedovo quarantunenne: Ada rimase affascinata dall'universalità delle idee di Babbage, e, interessatasi al suo lavoro, iniziò a studiare i metodi di calcolo realizzabili con la macchina differenziale e la macchina analitica. Si occupò di tradurre e commentare in lingua inglese alcuni interessanti articoli dell'italiano Luigi Federico Menabrea sugli sviluppi della macchina proposta da Babbage, con una struttura simile a quella della macchina di Turing, alla base dei moderni calcolatori, formata da un "magazzino" (memoria), un "mulino", (CPU), e un lettore di schede perforate (input). Con quest'ultimo Ada instaurò una corrispondenza, in cui egli la spinse ad aggiungere le sue note - assai più lunghe dello stesso articolo - e in cui i due si scambiarono idee e sogni sulle possibilità delle macchine analitiche.
Nel suo articolo, pubblicato nel 1843, la Byron descriveva tale macchina come uno strumento programmabile e, con incredibile lungimiranza, prefigurava il concetto di intelligenza artificiale, spingendosi ad affermare che la macchina analitica sarebbe stata cruciale per il futuro della scienza, anche se non riteneva che la macchina potesse divenire pensante similmente agli esseri umani.
Ada inoltre corredò il proprio articolo con un algoritmo per il calcolo dei numeri di Bernoulli, che oggi viene riconosciuto come il primo programma informatico della storia.
Il suo programma per la macchina, volto a calcolare i numeri di Bernoulli utilizzati per stilare tabelle numeriche, era di gran lunga più complesso di qualunque altro tentativo di Babbage, giustificando pienamente il riconoscimento di Ada come una delle protagoniste principali della storia dell'informatica.
Successivamente, Lady Lovelace intraprese una corrispondenza anche con personaggi illustri come Michael Faraday e John Herschel.
Morì il 27 novembre 1852, probabilmente per un tumore all'utero, e dietro sua richiesta venne sepolta accanto al padre.
Il linguaggio di programmazione Ada, finanziato e sviluppato dal Dipartimento della Difesa degli USA, è stato così chiamato in suo onore.
05 – TURING
Alan Mathison Turing (Londra, 23 giugno 1912 – Wilmslow, 7 giugno 1954) è stato un matematico, logico e crittanalista britannico, considerato uno dei padri dell'informatica.
Egli introdusse la macchina ideale ed il test che portano il suo nome. Fu anche uno dei più brillanti decrittatori che operavano in Inghilterra, durante la seconda guerra mondiale, per decifrare i messaggi scambiati da diplomatici e militari delle Potenze dell'Asse.
Omosessuale, morì suicida a soli 42 anni in seguito ad una persecuzione omofobica condotta nei suoi confronti.
Biografia
Durante i primi anni di scuola ebbe grosse difficoltà, ottenendo il diploma a stento. Poco appassionato al latino e alle Sacre Scritture, preferiva le letture riguardanti la teoria della Relatività, i calcoli astronomici, la chimica, o il gioco degli scacchi.
Nel 1931 venne ammesso al King's College dell'Università di Cambridge dove studiò meccanica quantistica, logica e la teoria della probabilità (dimostrò separatamente il teorema del limite centrale, già dimostrato nel 1922 dal matematico Lindeberg).
Nel 1934 si laureò con il massimo dei voti, l'anno seguente ottenne un Ph.D. e nel 1936 vinse il premio Smith. Nello stesso anno si trasferì alla Princeton University per conseguire il Ph.D., e pubblicò l'articolo "On computable Number, with an application to the Entscheidungsproblem" dove descriveva, per la prima volta, quella che verrà poi definita come la macchina di Turing. Durante la seconda guerra mondiale, Turing mise le sue capacità matematiche al servizio del Department of Communications inglese per decifrare i codici usati nelle comunicazioni naziste, criptate tramite il cosiddetto sistema Enigma (progettato da Arthur Scherbius).
Una ricostruzione della macchina Bomba
Con l'entrata in guerra dell'Inghilterra Turing fu "arruolato" nel gruppo di crittografi stabilitosi a Bletchley Park e con i suoi compagni lavorò stabilmente, per tutta la durata della guerra, alla decrittazione, sviluppando le ricerche già svolte dall'Ufficio Cifra polacco con la macchina Bomba, progettata in Polonia da Marian Rejewski nel 1932 ed ultimata nel 1938. Basandosi su tali esperienze Turing realizzò una nuova versione, molto più efficace, della bomba di Rejewski. Fu sul concetto di macchina di Turing che nel 1942 il matematico di Bletchley Park, Max Newman progettò una macchina chiamata Colossus (lontana antesignana dei computer) che decifrava in modo veloce ed efficiente i codici tedeschi creati con la cifratrice Lorenz SZ40/42, perfezionamento della cifratrice Enigma.
Il Colossus, costruito in segreto per la Royal Navy. è stato il primo ad usare le valvole termoioniche (fino ad allora usate solo da amplificatori) al posto dei relè, aumentando quindi notevolmente la potenza di calcolo, sfruttandone ben 1500. La macchina, programmabile, comparava due flussi di dati effettuando operazioni booleane. Un flusso era il messaggio da decifrare mentre il secondo era generato dalla macchina che cercava di individuare la chiave di codifica effettuando delle prove e confrontando i risultati. Se una simulazione dimostrava un grado di accuratezza superiore a una specificata soglia il risultato veniva stampato tramite una macchina da scrivere elettrica. Alla fine della guerra la macchina fu distrutta ed i progetti relativi bruciati, per ordine del servizio segreto inglese.
L'attività di Alan Turing nel gruppo di Bletchley Park fu coperta dal più assoluto segreto. Finita la guerra il governo inglese impose a tutti coloro che avevano lavorato alla decrittazione, realizzando macchine e sistemi per violare i codici crittografici tedeschi, giapponesi ed italiani , il divieto di parlare o, ancor peggio, scrivere di qualsiasi argomento trattato in quel periodo. Tale "silenzio" quindi impedì che Turing, come altri suoi colleghi anche meno famosi, ricevesse i riconoscimenti in campo scientifico che in altro ambito gli sarebbero stati ampiamente e pubblicamente riconosciuti. Dati ed informazioni su queste attività cominciarono ad essere pubblicate, previa autorizzazione dei servizi segreti inglesi, solo nel 1974, quando Turing e molti altri suoi colleghi nella decrittazione erano già defunti da tempo.
Nel 1954 Alan Turing morì ingerendo una mela avvelenata con cianuro di potassio, in tono col proprio carattere eccentrico e prendendo spunto dalla fiaba di Biancaneve da lui apprezzata fin da bambino. Curiosità: la mela morsa, simbolo della Apple, è un tributo a Alan Turing.
06 – VON NEUMANN
John von Neumann, nato János Neumann (Budapest, 28 dicembre 1903 – Washington, 8 febbraio 1957), è stato un matematico e informatico ungherese naturalizzato statunitense.
Fu una delle personalità scientifiche preminenti del XX secolo cui si devono fondamentali contributi in campi come teoria degli insiemi, analisi funzionale, topologia, fisica quantistica, economia, informatica, teoria dei giochi, fluidodinamica e in molti altri settori della matematica.
Biografia
John von Neumann è stato una delle menti più brillanti e straordinarie del secolo appena passato. Insieme a Leo Szilard, Edward Teller ed Eugene Wigner, i quattro facevano parte del "clan degli ungheresi" ai tempi di Los Alamos e del Progetto Manhattan. Oltre ad essere ungheresi, tutti e quattro erano di origini ebraiche ed erano stati costretti a rifugiarsi negli USA per sfuggire alle persecuzioni naziste.
Le sue capacità hanno permesso a Neumann di apportare contributi significativi e spesso assolutamente innovativi in molti campi della ricerca, dalla matematica alla meccanica statistica, dalla meccanica quantistica alla cibernetica, dall'economia all'evoluzione biologica, dalla teoria dei giochi all'intelligenza artificiale.
Quello di von Neumann con i militari è stato un rapporto piuttosto stretto, alimentato dalle sue convinzioni anti-naziste prima e anti-comuniste poi, sfociate in un vero e proprio odio che lo porterà ai vertici delle istituzioni politico militari degli Stati Uniti come membro del potente Comitato per i missili balistici intercontinentali.
Johnny, come lo chiamavano i suoi colleghi americani, era anche un grande amante della vita, e accanto alla personalità geniale ma cinica e spietata conviveva, apparentemente senza contraddizione alcuna, l'altro volto dello scienziato ungherese, quello affabile, mai presuntuoso, simpatico, goliardico e donnaiolo.
Attorno alla sua figura sono state scritte molte storie che hanno caratterizzato nell'eccesso questo personaggio, gran parte della quali, però, dettate da ostilità e avversione nei confronti del suo pensiero politico e sociale.
Vita in Europa (1903-1930)
Janos Neumann nasce a Budapest il 28 dicembre del 1903 da una famiglia di banchieri ebrei. Già a sei anni intrattiene gli ospiti di famiglia con la sua prodigiosa memoria, ripetendo all'istante intere pagine di elenco telefonico che gli erano state mostrate solo per pochi istanti, o eseguendo a mente, rapidamente e in maniera corretta divisioni con numeri da otto cifre. Non contento "Jancsi" si diverte con il padre conversando in greco antico, arrivando a padroneggiare, intorno ai dieci anni, quattro lingue.
Al termine della Prima guerra mondiale la famiglia von Neumann è costretta a trasferirsi in Austria a causa dell'ascesa al potere di Béla Kun e della Repubblica sovietica ungherese. Ma torna in patria poco dopo e come ebreo subisce la persecuzione del dopo Kun.
Al termine della sua educazione presso una scuola luterana, scrive a 18 anni il suo primo lavoro che viene poi pubblicato nel 1922 sulla rivista dell'Unione dei matematici tedeschi. Viene nominato miglior studente di matematica dell'Ungheria.
Ma il padre ha per lui altri progetti e vorrebbe convincere il giovane Jancsi a intraprendere la carriera negli affari o, quantomeno, a seguire corsi universitari meno teorici e più rivolti ad applicazioni pratiche. Si arriva a un compromesso e Jancsi si iscrive a chimica. O meglio, anche a chimica. A ventidue anni, infatti, si laurea in ingegneria chimica presso il Politecnico di Zurigo e in matematica a Budapest, dopo aver seguito a Berlino i corsi di Fritz Haber e di Albert Einstein.
Vita in America (1930-1957)
Tra il 1930 e il 1933 viene invitato a Princeton, dove mette in luce una vena didattica non proprio esemplare; la sua grande fluidità di pensiero mette in difficoltà molti degli studenti, che sono costretti a seguire i calcoli su una piccola porzione di lavagna che lo scienziato cancella poi velocemente impedendo agli allievi di copiare le equazioni. Nel 1933 apre i battenti l'Institute for Advanced Study, sempre a Princeton, e von Neumann è uno dei sei professori originari di matematica insieme a Albert Einstein, Hermann Weyl, Morse, Alexander e Thorstein Veblen.
Poco dopo, con l'arrivo dei nazisti al potere, abbandona la sua posizione accademica in Germania, considerando l'avventura americana ben più promettente. Terrà la cattedra di Princeton fino alla fine dei suoi giorni.
Durante la Seconda Guerra Mondiale crea la teoria dei giochi pubblicando nel 1944, insieme a Oskar Morgenstern, un testo che diverrà un classico, Theory of Games and Economic Behavior.
Alcuni anni più tardi Shannon, uno dei padri fondatori della teoria dell'informazione, si baserà sui lavori di von Neumann per pubblicare il suo articolo Una macchina giocatrice di scacchi.
Sempre nel 1944, von Neumann viene a conoscenza da un suo collega, Herman Goldstine, impegnato anch'esso nel Progetto Manhattan, dei tentativi effettuati presso il laboratorio balistico di costruire una macchina capace di trecento operazioni al secondo. Von Neumann rimane profondamente colpito da questa cosa e dentro alla sua mente si aprono nuovi e affascinanti scenari.
Il primo incontro con un calcolatore risale a poco tempo dopo, con la macchina Harvard Mark I (ASCC) di Howard Aiken, costruita in collaborazione con l'IBM; poi conosce ENIAC (Electronic Numerical Integrator And Computer), un ammasso enorme di valvole, condensatori e interruttori da trenta tonnellate di peso, costruita da Prosper Eckert e John Mauchly.
Questo primordiale computer è utile per eseguire calcoli balistici, meteorologici o sulle reazioni nucleari, ma è una macchina limitata, quasi del tutto priva di memoria e di elasticità; in altre parole, una macchina stupida. Per migliorare un simile marchingegno c'è bisogno di quell'intuizione che una decina d'anni prima aveva avuto Alan Turing nel suo articolo sui numeri computabili, e cioè permettere al computer di modificare il proprio comportamento, o, in altre parole, imparare un software. Nel 1945 esce così First Draft of a Report on the Edvac.
L'EDVAC (Electronic Discrete Variables Automatic Computer) è la prima macchina digitale programmabile tramite un software basata su quella che sarà poi definita l'architettura di von Neumann. Il merito dell'invenzione, oltre che allo scienziato ungherese, va a Alan Turing (per l'idea: l'EDVAC, a dispetto della propria memoria finita, è la realizzazione della macchina universale inventata da Turing nel 1936, ovvero, un computer programmabile nel senso moderno del termine) e ad Eckert e Mauchly (per la realizzazione).
Gli anni della guerra vedono von Neumann coinvolto nel progetto Manhattan per la costruzione della bomba atomica; è un coinvolgimento alimentato da un profondo odio verso i nazisti, i giapponesi e successivamente verso i sovietici. Già nel 1937, dopo aver ottenuto la cittadinanza statunitense, gli viene proposto di collaborare con le forze armate e da quel momento la sua escalation ai vertici delle istituzioni politico-militari non conoscerà più soste. È lui a suggerire come deve essere lanciata la bomba atomica per creare il maggior numero di danni e di morti, è lui che interviene nella costruzione della bomba al plutonio realizzando la cosiddetta "lente al plutonio", ed è ancora lui a incentivare la costruzione di ordigni nucleari sempre più potenti. Ma si spinge oltre, proponendo alle autorità militari di bombardare preventivamente l'Unione Sovietica per scongiurare il pericolo rosso. La sua teoria dei giochi viene utilizzata in questo contesto per studiare e ipotizzare tutti i possibili scenari bellici che si possono sviluppare in seguito a certe decisioni. Il fervore con cui appoggia lo sviluppo degli ordigni atomici lo spinge a seguire di persona alcuni test sulle armi nucleari nella seconda metà degli anni quaranta, che raggiungeranno l'apice con l'esplosione della bomba H nelle Isole Marshall nel 1952. Probabilmente saranno proprio le radiazioni sprigionate da questi test a condannarlo a morte, da lì a poco.
Nello stesso anno dell'esplosione della bomba H, viene nominato membro del General Advisory Committee della potente AEC (Atomic Energy Commission) e consigliere della CIA (Central Intelligence Agency, l'agenzia statunitense per lo spionaggio all'estero). Tre anni più tardi diventa membro effettivo dell'AEC.
Nel pieno della Guerra Fredda, a metà degli anni Cinquanta, si impegna al massimo per appoggiare la costruzione del missile balistico intercontinentale (ICBM) Atlas che, successivamente, servirà a scopi più nobili della guerra; un Atlas modificato, infatti, porterà John Glenn nello spazio nel 1962.
Un tumore alle ossa lo costringe sulla sedia a rotelle, anche se la malattia non gli impedisce di seguire di persona le riunioni strategiche con i militari, mentre si dedica a nuovi studi che riguardano programmi capaci di autoriprodursi e che lui chiama automi cellulari.
Confortato da pochi amici che gli saranno vicini fino all'ultimo, come Wigner, muore l'8 febbraio del 1957.
07 – SHANNON
Claude Elwood Shannon (Petoskey, 30 aprile 1916 – Medford, 24 febbraio 2001) è stato un ingegnere e matematico statunitense, spesso definito "il padre della teoria dell'informazione".
Biografia
Shannon nacque a Petoskey, in Michigan, ed era un lontano parente di Thomas Edison. Da ragazzo lavorò come telegrafista per la Western Union. Shannon iniziò a studiare ingegneria elettronica e matematica all'Università del Michigan nel 1932, dove conseguì due lauree triennali nel 1936, in matematica e in ingegneria elettronica.
Con la tesi che presentò al master del 1938 (Un'analisi simbolica dei relè e dei circuiti), Shannon dimostrò, utilizzando un circuito elettrico dotato di un interruttore, che il fluire di un segnale elettrico attraverso una rete di interruttori - che possono essere "accesi/spenti" - segue esattamente le regole dell'algebra di Boole (con i due valori di verità - VERO e FALSO - della logica simbolica). Shannon pose così la base teorica dei sistemi di codificazione, elaborazione e trasmissione digitale dell'informazione.
Dopo aver lavorato sulla genetica nel laboratorio di Cold Spring Harbor, Shannon si dedicò al suo dottorato di ricerca (PhD) al Massachusetts Institute of Technology, dove collaborò alla costruzione dell'analizzatore differenziale di Vannevar Bush, un calcolatore analogico. La sua tesi di dottorato, risalente al 1940, è intitolata Un'algebra per la genetica teorica. L'anno dopo cominciò a lavorare ai laboratori Bell, alternandosi con l'insegnamento al MIT a partire dagli anni cinquanta.
Nei laboratori della Bell, dove rimarrà fino al 1972, Claude Shannon si occupò di problemi d'ingegneria a livello matematico. Effettuò degli studi che lo portarono a definire l'entropia nell'informazione, e iniziò a porre le basi della teoria dell'informazione.
Durante la seconda guerra mondiale il Pentagono chiese a Shannon di realizzare delle ricerche sulla possibilità di "guidare" i missili. Nel 1948 Shannon pubblicò in due parti il saggio Una teoria matematica della comunicazione. In questo lavoro si concentrava sul problema di ricostruire con un certo grado di certezza le informazioni trasmesse da un mittente. Shannon utilizzò strumenti quali l'analisi casuale e le grandi deviazioni, che in quegli anni si stavano appena sviluppando. Fu in questa ricerca che Shannon coniò la parola "bit", per designare l'unità elementare di informazione. La sua teoria dell'informazione pose le basi per progettare sistemi informatici, partendo dal presupposto che l'importante era cercare di memorizzare delle informazioni in modo da poterle anche trasferire e collegare tra loro.
Nel 1949 Shannon pubblicò un altro notevole articolo, La teoria della comunicazione nei sistemi crittografici, con cui Shannon praticamente fondò la teoria matematica della crittografia. È inoltre riconosciuto come il "padre" del teorema del campionamento, che studia la rappresentazione di un segnale continuo (analogico) mediante un insieme discreto di campioni a intervalli regolari (digitalizzazione).
Nel 1956 fu eletto membro dell'Accademia Nazionale delle Scienze. Dal 1958 al 1978 fu professore al MIT.
SECONDA PARTE
01 - MITS Altair 8800
Il MITS Altair 8800 è stato uno tra i primi microcomputer disponibili sul mercato. È stato sviluppato e commercializzato dalla Micro Instrumentation and Telemetry Systems, con sede ad Albuquerque (Nuovo Messico, USA).
Nel 1975, il numero di gennaio della rivista Popular Electronics diede inizio all'era dell'informatica per tutti, presentando in copertina l'Altair 8800. Prima di allora il termine "computer" era sinonimo di macchine grandi e costose che potevano permettersi solo le aziende.
Il costo del computer in kit era di 395 US$, mentre la versione assemblata, era di 495 US$. I progettisti del computer non si aspettavano il successo che avrebbe avuto, pensando di poter vendere poche centinaia di esemplari.
Ed Roberts, il proprietario della Micro Instrumentation and Telemetry Systems, fece scegliere il nome del computer a sua figlia: Altair, il nome di una stella, usata in un episodio di Star Trek visto quella sera.
Architettura
L'Altair 8800 è basato su un microprocessore Intel 8080, con 256 Byte di RAM, ed è dotato di un'interfaccia basata su interruttori. Agendo su di essi si può programmare in codice binario, mentre il risultato delle elaborazioni viene visualizzato tramite il lampeggio dei LED posti sul pannello frontale.
Il Bus S-100
Poiché diverse parti elettroniche non erano ancora disponibili al momento della progettazione, e per risolvere i problemi di dimensione della scheda madre, fu necessario inventare il bus che divenne il primo bus standard, chiamato S-100. Con questo accorgimento fu possibile separare dalla scheda madre parte della logica, che essendo su schede diverse poteva comunicare tramite il bus.
Il software
Listato BASIC
Paul Allen e Bill Gates nello stesso anno, decisero di scrivere un linguaggio di programmazione da far funzionare nell'Altair. Il risultato fu una versione semplificata del BASIC chiamata Altair BASIC. Il successo di questa prima versione fu tale che i due fondarono una società, la Microsoft, sempre ad Albuquerque, che nei primi anni di attività adattò questo linguaggio, ora noto come Microsoft BASIC, a moltissimi microcomputer dell'epoca.
L'interfaccia utente
Il pannello frontale conteneva 36 LED:
• 16 per il bus degli indirizzi
• 8 per i dati
• 8 per lo stato
I quattro LED rimanenti erano usati per visualizzare lo stato della CPU.
Inoltre c'erano una serie di interruttori, per inserire gli indirizzi e i dati, oltre a un insieme di interruttori per il controllo del sistema.
02 - APPLE
L'alba in Apple
Nel 1975, Steve Wozniak abbandona l'University of California, Berkeley anche a causa di un incidente automobilistico che gli era occorso, dal quale era uscito illeso. Trova lavoro alla Hewlett Packard e nel tempo libero inizia a lavorare al progetto di un personal computer; il progetto nasce come un hobby e infatti non ha nessuna ambizione commerciale. Inizia anche a frequentare le riunioni dell'Homebrew Computer Club a Palo Alto, un gruppo locale di appassionati di elettronica e informatica che si riunivano per condividere conoscenze tecniche e per discutere di problemi tecnici.
Nel club rincontra Steve Jobs. Jobs è 5 anni più giovane di Woz ma ha già le idee molto chiare. Nel 1972 aveva abbandonato gli studi al Reed College e aveva iniziato a lavorare nel settore informatico, come Woz. Jobs convince Wozniak che il suo computer è un ottimo progetto e lo spinge a realizzarlo realmente. Per raccogliere i soldi i due vendono dei loro beni (Wozniak vende una costosa calcolatrice scientifica HP mentre Jobs il suo minivan Volkswagen) con cui recuperano 1300 dollari che usano per assemblare il prototipo nel garage di casa Jobs. Il computer assemblato per gli standard moderni è un prodotto obsoleto ma allora era un gioiello tecnologico. In confronto l'Altair 8800, un famoso computer introdotto all'inizio del 1975, era anni indietro rispetto al computer di Woz. L'Altair non disponeva di unità di memorizzazione, il programma andava inserito tramite una serie di piccoli interruttori opportunamente configurati. L'output non era su video bensì visualizzato da una serie di lampeggii delle spie installate sul corpo macchina. E il computer Altair andava montato dato che veniva venduto in scatola di montaggio, era un computer per un appassionato non certamente per un pubblico generico. Invece il computer di Wozniak era dotato di tastiera per immettere i dati, di unità di memorizzazione, di un microprocessore da 25 dollari, di ROM per semplificare l'avvio del computer e veniva venduto montato. Il 1º aprile 1976 Wozniak e Jobs fondarono l'Apple e chiamarono il loro computer Apple I. Contestualmente Wozniak abbandonò il proprio lavoro all'Hewlett Packard e divenne vicepresidente nonché progettista della società. L'Apple I venne venduto a 666,66 dollari e i primi esemplari vennero acquistati da un negozio di computer locale, The Byte Shop.
Wozniak si concentrò a tempo pieno sul miglioramento dell'Apple I e sull'eliminazione dei problemi. Il progetto dell'Apple I fece guadagnare alla società un milione di dollari. I nuovi progetti di Woz aggiunsero una serie di nuove caratteristiche al computer, pur mantenendo lo spirito base e cioè quello di ottenere un prodotto semplice e usabile. Woz aggiunse la capacità al computer di visualizzare della grafica (richiese solo due componenti in più anche se non era sicuro che gli utenti avrebbero usato la nuova possibilità). Nel 1978 progettò un lettore di Floppy disk molto economico e con Randy Wigginton sviluppò un primitivo sistema operativo.
Oltre che occuparsi dell'hardware, Wozniak si preoccupò anche del software e infatti scrisse molto del software che accompagnò i suoi computer. Sviluppò un interprete Basic e un gioco di breakout (che Woz indica come il gioco del Pong ma solo per una persona) che tra l'altro lo spinse ad aggiungere il suono al computer. Il primo gioco di breakout lo realizzò per l'Atari, "arruolato" da Jobs, che all'epoca lavorava in quell'azienda; molto importante è sottolineare che il primo breakout per Atari era sviluppato a livello hardware, ovvero inserendo il codice all'interno dei chip e degli interpreti dei comandi e come monitor veniva usata una TV. Sviluppò il programma (e migliorò l'hardware) che gestiva il floppy disk e molto altro. Con i vari programmi già integrati nelle ROM l'Apple II era molto più semplice da programmare degli altri computer in commercio e questo spinse molti programmatori a utilizzarlo e a sviluppare software da far "girare" sull'Apple II; nacque il famoso foglio elettronico Visicalc sviluppato da Dan Bricklin e Bob Frankston. Nel 1980, la compagnia (Apple) venne quotata in borsa e rese Jobs e Wozniak milionari. A soli 27 anni Jobs era il più giovane uomo incluso nell'elenco di Fortune 500 del 1982.
03 - Commodore Business Machines
La societa' che conosciamo col nome di Commodore Business Machine fu fondata a Toronto, Canada nel 1955 da Jack Tramiel, che si pose come obiettivo di realizzare il piu' importante pezzo della tecnologia per ufficio di quel tempo: la macchina calcolatrice da tavolo. La societa' incontro' un moderato successo finche' il partner d'affari di Tramiel non fu coinvolto in alcune pratiche d'affari poco chiare e CBM scivolo' in rosso. A questo punto Irvine Gould si offri' di salvare la CBM col proprio denaro in cambio della nomina a presidente e Tramiel accetto'.Il mercato delle macchine calcolatrici da tavolo inizio' a crollare, cosi' Tramiel ando' in Giappone per studiare il mercato e guardare cosa stavano facendo i concorrenti. Tramiel scopri' che il nuovo business erano le calcolatrici elettroniche, cosi' ritorno' a casa e riposiziono' la CBM. Commodore realizzo' la prima calcolatrice elettronica americana ed il mercato esplose. La guerra delle calcolatrici presto divenne molto calda con le societa' giapponesi ed americane in competizione per fare prodotti piu' piccoli, piu' veloci e piu' economici. Nel 1976 Commodore reagi' acquistando alcune piccole societa' di elettronica e acquisendo nuovo personale, tra i quali c'era Chuck Peddle che era coinvolto nel progetto del PET e del microprocessore 6502 dei PET. Peddle convinse Tramiel ad uscire dal mercato delle calcolatrici e invece di concentrarsi nel nuovo campo degli home computer. Tramiel accetto' il consiglio di Peddle ed il Commodore PET (Personal Electronic Transactor) fu introdotto nel 1977.
Il PET era in diretta competizione con altri pionieri dell'home computer come l'Apple II ed il TRS-80 ed ebbe alcune difficolta' contro di questi. Oltre a questi problemi, Chuck Peddle lascio' la Commodore nel 1979 dopo una divergenza di opinioni tra lui e Tramiel riguardo a dove reperire le memorie del PET. Commodore sembro' di nuovo crollare a terra, ma tutto cambio' con il successo del VIC-20 nel 1981.
Il VIC-20 fu un cambio di passo dal PET. Diversamente dal PET, non includeva un monitor od un registratore. Ancora diversamente dal PET, il VIC-20 era economico, con un prezzo consigliato dal produttore di soli 300$ contro i quasi 1.500$ del PET. Il VIC era progettato in modo da potersi collegare ad un normale televisore e lo faceva molto bene. Il VIC era comunque abbastanza limitato, ma Commodore rimedio' a questo l'anno successivo quando introdusse il famoso Commodore 64.
Il C-64 assomigliava molto al VIC-20 - usava perfino lo stesso case, solo in un colore diverso. Le differenze tra le due macchine erano all'interno. Il C-64 aveva una memoria da 64K contro i 5K del VIC. Il C-64 vantava anche una risoluzione grafica piu' alta del VIC, ma uno degli aspetti piu' rivoluzionari del C-64 era l'introduzione del chip SID - il primo chip sintetizzatore mai usato in un personal computer. Il C-64 ha venduto uno stimato di 17 - 22 milioni di pezzi durante la sua produzione, facendolo il piu' venduto personal computer nel mondo fino ad oggi.
In seguito Commodore rilascio' altre versioni della sua macchina ma nessuno computer realizzato da Commodore o qualsiasi altro computer realizzato fu in grado di vendere di piu' del C-64.
Jack Tramiel sorprese tutti nel 1984 quando improvvisamente lascio' la Commodore per andare a lavorare per l'Atari. Commodore non fu mai rivoluzionaria nel marketing (fu detto che Commodore non riusciva a vendere acqua nel deserto), ma le cose andarono peggio dopo la dipartita di Tramiel. Commodore inizio' le pratiche del fallimento nel 1993 e le porte della Commodore si chiusero in tutto il mondo nel 1994.
04 - Il PC IBM
Il 12 agosto 1981, IBM immette nel mercato il primo di una serie di personal computer che diventerà molto popolare: l'IBM 5150, meglio conosciuto come PC IBM.Nella sua prima versione era dotato di microprocessore Intel 8088 a 4,7 MHz, con 16 KByte di RAM, espandibili a 640, senza disco rigido, con massimo due drive per floppy disk da 5.25" a 160Kb, un monitor a fosfori verdi e sistema operativo PC-DOS 1.0, sviluppato dalla Microsoft e ceduto in licenza all'IBM.
Il costo di questo PC era elevato (circa 3.000 dollari), la capacità di elaborazione bassa, la possibilità di gestire grosse moli di dati era legata all'acquisto di costosissimi dischi rigidi, o unità a nastro esterne. D'altra parte era una macchina solida e affidabile, che godeva di assistenza tecnica; era espandibile tramite un bus interno per schede di espansione, caratteristica che oltre al PC IBM solo l'Apple II allora possedeva. In una parola, mentre il resto degli home/personal computer di allora non riusciva a scrollarsi di dosso una certa immagine da "tecno-giocattoli", il PC IBM nasceva invece come una macchina "seria", con cui poter lavorare.
All'epoca fece furore, vendendo 50.000 pezzi in un mese e 200.000 in un anno, cifre enormi per il mercato dei computer di allora: l'economicissimo e contemporaneo Sinclair ZX80 vendette 70.000 unità in un anno. Anche se non era la miglior macchina tecnologicamente avanzata disponibile (vedi Apple II), l'esperienza e il nome dell'IBM, assieme all'aspetto austero e professionale del 5150, ne fecero lo standard de facto nell'industria del personal computer.
I cloni PC
Il successo di IBM non passò inosservato: le industrie informatiche delle "tigri orientali" (Taiwan, Singapore, etc.) si misero subito al lavoro per clonare il PC IBM. La clonazione, cioè la duplicazione, fu possibile poiché IBM forniva assieme al PC anche gli schemi elettrici, ed il listato del sistema operativo era facilmente ottenibile, i componenti utilizzati, chips di memoria, processore, unità a disco erano "standard" e disponibili per tutti.
Il passo per la produzione industriale dei cloni fu brevissimo. In pochi anni il mondo fu invaso da enormi quantità di PC clonati, dalle prestazioni sempre più brucianti e dai costi sempre più bassi.
FINE
ò@ò@ò@ ò@ò@ò@ò@ ò@ò@ò@ò@ ò@ò@ò@ò@ ò@ò@ò@ò@ ò@ò@ò@ò@
Nessun commento:
Posta un commento
Nota. Solo i membri di questo blog possono postare un commento.