martedì 6 gennaio 2015

Storia del computer

Fonte: Task 1 - Gallo, Salerno - Minerva Scuola

La prima vera macchina da calcolo fu costruita dai Greci e dai Romani: l’abaco, dalla parola greca abax, che significa “tavola”. Era appunto una tavoletta, divisa in due parti e composta da varie scanalature, all’interno delle quali erano inseriti dei sassolini.

Nel 1623 Wilhelm Schickard costruì la prima macchina per il calcolo automatico, che andò perduta nella Guerra dei 30 anni e della quale si scoprì l’esistenza solo nel 1957. La macchina di Schickard era capace di compiere le quattro operazioni.

Il primo vero successo spettò al filosofo e matematico francese Blaise Pascal che, appena ventenne, nel 1642 progettò una macchina per addizionare e sottrarre, che teneva conto automaticamente dei riporti: la Pascalina, la più antica macchina di calcolo giunta a noi. Essa diede inizio alla lunga serie di macchine calcolatrici che avrebbe poi aperto il passo agli attuali computer.

Nel 1673, anche il filosofo e scienziato tedesco Gottfried Wilhelm von Leibniz progettò e costruì una macchina calcolatrice, che era in grado di eseguire automaticamente anche le operazioni di moltiplicazione e divisione.

Nel 1679 Leibniz progettò anche una macchina da calcolo binario, introducendo
quello che sarebbe divenuto il codice matematico dei computer moderni.

Un contributo indiretto, ma decisivo, allo sviluppo di macchine automatiche per
il calcolo, giunse nel 1725 a opera di Bouchon con l’invenzione della banda perforata per la programmazione automatica dei telai tessili. Tale invenzione
venne perfezionata con l’adozione di piccole schede a cartoncino dal meccanico
Falcon nel 1728.

Al francese Joseph M. Jacquard spetta il merito di aver reso industriale questo processo, applicandolo ai telai meccanici e rivoluzionando l’industria tessile. L’idea fu quella di far guidare automaticamente i movimenti del telaio da una serie di fori praticati su schede di cartone. Nacque così la scheda perforata, utilizzata per trasmettere a una macchina le informazioni necessarie per il suo funzionamento. La scheda perforata è stata usata fino a pochi decenni fa come strumento di input. Era costituita da un cartoncino rettangolare di dimensioni standard e suddivisa in ottanta colonne e dodici righe: in ciascuna colonna poteva essere memorizzato un carattere mediante la perforazione di fori rettangolari in opportune posizioni.
Le apparecchiature che servivano per la perforazione delle schede erano di due tipi: perforatori, che realizzavano la perforazione in modo automatico, e perforatrici di tipo manuale, costituite da una tastiera analoga a quella delle comuni macchine per scrivere.

Occorre attendere, però, gli studi di Charles Babbage e di Ada Lovelace per giungere a qualcosa di veramente innovativo. Charles nacque nel 1791 e si rivelò ben presto un genio matematico. Lavorando alla correzione dei numerosi errori da lui individuati nelle tavole logaritmiche costruì un apparecchio di calcolo. Nel 1822 presentò alla Royal Astronomical Society il primo modello di Macchina differenzialein grado di eseguire i calcoli necessari per costruire le tavole logaritmiche. Insieme a Lady Ada Augusta contessa di Lovelace, figlia di lord Byron, Babbage intraprese la costruzione della Macchina analitica (Analytical Engine). Questo apparecchio, che riceveva i comandi da una scheda perforata, doveva essere in grado di calcolare i valori di funzioni matematiche molto più complesse della funzione logaritmo, ma fin dagli inizi difficoltà di ogni tipo ne limitarono il funzionamento. La macchina occupava tutto l’enorme laboratorio di Babbage.
A Babbage vennero a mancare i finanziamenti del governo inglese, poiché non onorò il primo contratto stipulato, quello relativo alla seconda macchina differenziale (più grande della prima). Per questa ragione dovette rinunciare alla costruzione della macchina analitica.
La macchina si basava su due principi di funzionamento:
• una parte chiamata store o memoria;
• una parte chiamata mill o unità di calcolo.

Lo svedese Georg Scheutz, fu il primo a realizzare una macchina differenziale funzionante e con meccanismo stampante e, soprattutto, il primo europeo a esportare tecnologie di calcolo negli Stati Uniti, aprendo in questa nazione l’era del calcolo automatico. La macchina di Scheutz fu acquistata dall’osservatorio astronomico di Albany, nello stato di New York, per calcolare le posizioni di alcuni astri.

Nel 1847, l’inglese George Boole con la sua opera Mathematical analysis of logic gettò le basi del sistema logico binario.

Nel 1880 fu svolto negli Stati Uniti il censimento della popolazione e le registrazioni manuali permisero di ottenere i risultati sette anni dopo. Quando nel 1890 si dovette ripetere il censimento, un ingegnere che collaborava con l’Ufficio Censimento degli Stati Uniti, Herman Hollerith, riprese il concetto della scheda perforata. L’idea era di perforare i dati su schede e di rilevare la presenza di una perforazione mediante aghi percorsi da corrente elettrica. Le macchine di questo tipo, chiamate tabulatrici, vennero utilizzate per l’elaborazione dei dati del censimento riducendo la tempistica dell'elaborazione a sette settimaneDa quel momento l’applicazione di queste unità meccanografiche si estese e iniziò il loro impiego nel settore commerciale. Per la produzione di tali apparecchiature, nel 1896 Hollerith fondò la Tabulating Machine Company che diventò nel 1924 la International Business Machine Corporation (IBM).

Un'ulteriore conferma delle intuizioni di Babbage, avvenne nel 1936, quando un giovane matematico, Alan Turing, pubblicò un articolo sulla rivista On Computable NumbersTuring fu alla guida di un gruppo di ricercatori e sviluppò l’invenzione più segreta della seconda guerra mondiale, Colossus, il primo computer elettromeccanico, costruito da T.H. Flowers. Questo apparecchio fu utilizzato per decifrare il codice segreto tedesco Enigma durante il conflitto.

Nel 1939 Konrad Zuse costruì lo Z1, primo di una serie di calcolatori elettromeccanici basati sul sistema binario e programmabili. La macchina presentava una struttura analoga ai computer moderni, poiché distingueva unità di memoria e unità di calcolo, e funzionava alla velocità di clock di un solo Hertz, generata da un motore elettrico. Gli studi di Zuse e quelli di John Vincent Atanasoff, inventore della memoria rigenerativa, furono la base per le successive innovazioni dell'architettura dei computer.
Il convegno internazionale di Informatica del 1998 riconobbe a Konrad Zuse con il suo Z1 il ruolo di inventore del primo computer programmabile funzionante della storia.

Dopo la guerra, Turing partecipò al primo progetto americano di computer, l’ENIAC (Electronic Numerical Integrator And Computer) il primo calcolatore elettronico messo in funzione nel 1946. L’apparecchio, progettato dall’Università di Pennsylvania, impiegava 18.000 valvole e occupava uno spazio di 180 metri quadrati. L’ENIAC pose fine all’era dei calcolatori meccanici, perché fu il primo calcolatore elettronico della storia.

Konrad Zuse costruì in Germania nel 1941 il primo computer Turing-completo basato sul sistema numerico binario e programmabile. Distrutto in un bombardamento, per molti anni ne è stata ignorata perfino l’esistenza. Di conseguenza il primato di primo computer della storia è stato ingiustamente riconosciuto alla macchina statunitense ENIAC.

Nel 1948 furono utilizzati i transistor al silicio, che, rispetto alle valvole, permisero di ottenere velocità di calcolo impressionanti, maggiore accuratezza e bassa generazione di calore. Al pari delle valvole, i transistor vennero impiegati come interruttori elettronici.

A metà degli anni Sessanta, si produssero circuiti miniaturizzati e vennero prodotti i primi circuiti integrati su singoli chip di silicio, che hanno consentito di compiere un balzo in avanti nella costruzione dei computer. Grazie ad essi inizia la miniaturizzazione dei componenti elettronici, coronata dall’integrazione in un solo chip di più circuiti.

Nacque il microprocessore: il primo fu l’INTEL 4004, costruito negli Stati Uniti da un team di cui faceva parte l’italiano Federico Faggin. Sebbene il microchip sia poco simile alla gigantesca “macchina analitica” di Babbage e Lovelace o al Colossus di Turing, l’architettura dei moderni computer si basa ancora sui principi impostati da Babbage e la teoria enunciata da Turing rimane ancora oggi importante.

Tra gli uomini che hanno fatto la storia dell’elaborazione automatica occorre ricordare anche l’“architetto” dei moderni computer, John von Neumann, il quale prese parte al progetto ENIAC come consulente per la parte logica del sistema. Il suo lavoro ha influenzato enormemente i successivi sviluppi dell’informatica. Egli suggerì, tra l’altro, di dotare i futuri computer di programmi interni allo stesso apparecchio e di impiegare la numerazione binaria per rappresentare programmi e dati nella memoria del computerCon l’introduzione di tali concetti, gli elaboratori elettronici assunsero le caratteristiche attuali. Von Neumann lavorò in collaborazione con un gruppo di esperti militari e di professori universitari di Princeton, e costruì nell 1952 l'IAS o Princeton o Macchina di von Neumann.
La flessibilità operativa di questa macchina fece sì che potesse essere impiegata nella soluzione di problemi di natura completamente diversa, di tipo amministrativo, gestionale e produttivo. La diffusione nell’uso degli elaboratori elettronici ha contribuito quindi alla nascita di una nuova area scientifica e tecnologica, che va ormai comunemente sotto il nome di informatica.

Nel 1970 nei laboratori Xerox di Palo Alto viene nel 1972 dal Palo Alto Research Center (PARC), venne prodotto Xerox Alto, il primo computer a essere dotato di un display bitmap a finestre con capacità di sovrapposizione, connesso alla prima stampante laser, collegato alla prima rete Ethernet in LAN, e dotato del primo linguaggio orientato agli oggetti: Smalltalk. Questo computer darà il via al progetto Xerox Star (1981), il primo computer in assoluto sul mercato dotato di interfaccia GUI (Graphical User Interface) a icone, con mouse.

Nell’aprile 1975 nei laboratori di Ricerca & Sviluppo della Olivetti di Ivrea, giovani ingegneri e diplomati presentarono alla fiera di Hannover il P6060, primo personal al mondo con floppy disk incorporato. Era in concorrenza con un prodotto IBM simile ma dotato di floppy disk esterno. Nel successivo prodotto, l’M20 (1982) l’azienda adottò per la prima volta il microprocessore.

Steve Wozniac e Steve Jobs, fin da giovanissimi progettavano computer. Pochi altri hanno contribuito alla miniaturizzazione e alla diffusione su larga scala del computer. Tra le loro invenzioni ricordiamo l’Apple II (che oggi è un computer da collezionisti), realizzato con l’aiuto finanziario di Mike Markkula nel 1977: fu il primo personal computer a impiegare unità a dischetti e rimane ancora oggi uno dei più grandi successi commerciali. La novità introdotta dall’Apple II per il software era il linguaggio BASIC, che permetteva una programmazione. Dal punto di vista hardware, l’Apple II disponeva di una memoria di massa costituita da un floppy disk da 5,25 pollici.

Nello stesso periodo altri costruttori diedero l’avvio al ribasso dei prezzi. Realizzarono macchine potenti ma più economiche. Fu l’era di Sinclair, con lo ZX-80 e lo Spectrum, e della Commodore, con il C64i primi home computer della storia.

Agli inizi degli anni Ottanta, al mercato già gremito, si aggiunse IBM, che introdusse sul mercato il PC IBM o IBM 5150, basato su un potente microprocessore, l’Intel 8088, e mise gli schemi tecnici a disposizione di tutti i produttori di accessori per computer che realizzarono ogni genere di schede aggiuntive. Nacque la seconda generazione dei personal: i businness o professional computer, che avevano un prezzo quasi analogo ai loro predecessori, ma erano molto più potenti.
Il PC IBM divenne lo standard e con esso il suo sistema operativo, il CP/Mche, per le esagerate condizioni di licenza d’uso imposte da Digital Research venne sostituito con l’MS-DOS, Disk Operating System progettato dalla Seattle Computer Company e acquistato per poche centinaia di dollari da Bill Gates che nel 1977, insieme con Paul Allen e Steve Ballmer fondò Microsoft, una delle più potenti software house del mondo.

Nel 2008 Bill Gates si dimette da presidente lasciando il suo posto a Steve Ballmer, suo  braccio destro, e si dedica a tempo pieno alla sua Foundation, insieme alla moglie Melinda Gates, e alla ricerca di nuovi software e hardware, per una maggior semplicità di utilizzo da parte degli utenti.

Il successo di IBM non passò inosservato, le industrie informatiche delle “tigri orientali” (Taiwan, Singapore e così via) si misero subito al lavoro per clonare il PC IBM, resa possibile poiché IBM forniva gli schemi elettrici e il listato del sistema operativo era facilmente ottenibile. In pochi anni il mondo fu invaso da enormi quantità di PC clonati, con sempre maggiori prestazioni e minori costi.

Nel 1984 Apple, dopo l’insuccesso dell’Apple Lisa nel 1983, l’azienda di Cupertino (California) decide di ritentare l’impresa col Macintosh, decisamente più elegante nel design e nell’approccio all’interfaccia grafica. Nasceva così il concetto di WIMP (Windows Icons Mouse and Pointer).
Il primo modello di Mac fu messo in vendita al prezzo di 2.495 dollari e ottenne un successo di mercato senza precedenti, grazie alla facilità d’uso del suo sistema operativo, il Mac OS. La sua interfaccia grafica (GUI) era semplice da usare: usava il cestino, la scrivania, le finestre, gli appunti e così via, aprendo finalmente l’uso del computer anche a persone con limitate conoscenze informatiche.

Microsoft adottò molte di queste caratteristiche nella creazione del proprio sistema operativo Windows, scatenando una battaglia legale durata oltre un decennio.

Nel 1987 nasce Amiga2000, una piattaforma informatica ideata da una piccola compagnia americana, Hi-Toro, con lo scopo di creare una macchina da gioco dalle grandi capacità grafiche e sonore. In seguito vennero incorporate caratteristiche di un personal computer multimediale con un elegante sistema operativo, AmigaOS. Nel 1985 venne mostrato l’Amiga 100. Nacque la piattaforma soprannominata Advanced Multitasking Integrated Graphics Architecture, in breve AMIGA.

Hi-Toro fu poi acquisita dalla Commodore, che commercializzò il prodotto dal 1985. La piattaforma raccolse un notevole seguito tra gli esperti e gli appassionati di informatica. In seguito alla bancarotta e poi alla liquidazione della Commodore, la tecnologia Amiga venne venduta ad una serie di aziende specializzate in personal computer che non seppero rivalutarla adeguatamente.

Nel 2004 l'IBM decide di abbandonare la produzione dei computer e cedendo marchio e quote di mercato alla cinese Lenovo, che detiene il primo posto di vendite in Asia, escludendo il Giappone. L'accordo prevede la fornitura dei servizi da parte della IBM a Lenovo.

Attualmente si assiste a una specializzazione nella produzione dell’hardware sviluppando i singoli componenti invece dei prodotti completiDelle grandi case che producevano sia hardware sia software sono attualmente attivi solo pochi marchi, tra cui, ad esempio, Sun Microsystems, che continua a detenere un primato per i grandi server.

Nessun commento:

Posta un commento