La storia dello sviluppo della tecnologia informatica della generazione dei computer è breve. Storia mar. I primi dispositivi e dispositivi di conteggio


La necessità di dispositivi per accelerare il processo di conteggio è apparsa negli esseri umani migliaia di anni fa. Allora si usavano mezzi semplici, come contare i bastoncini. Più tardi apparve l'abaco, a noi meglio noto come abaco. Permetteva di eseguire solo le operazioni aritmetiche più semplici. Molto è cambiato da allora. Quasi ogni casa ha in tasca un computer e uno smartphone. Tutto ciò può essere riunito sotto il nome generale di “Tecnologia informatica” o “Tecnologia informatica”. In questo articolo imparerai qualcosa in più sulla storia del suo sviluppo.

1623 Wilhelm Schickard pensa: “Perché non invento la prima macchina addizionatrice?” E lo inventa. Realizza un dispositivo meccanico in grado di eseguire operazioni aritmetiche di base (addizione, moltiplicazione, divisione e sottrazione) e funziona con l'ausilio di ingranaggi e cilindri.

1703 Gottfried Wilhelm Leibniz descrive il sistema dei numeri binari nel suo trattato “Explication de l’Arithmtique Binaire”, che in russo viene tradotto come “Spiegazione dell’aritmetica binaria”. L'implementazione dei computer che lo utilizzano è molto più semplice e lo stesso Leibniz lo sapeva. Nel 1679 creò il disegno di un computer binario. Ma in pratica, il primo dispositivo del genere è apparso solo a metà del XX secolo.

1804 Per la prima volta sono apparse le carte perforate (carte perforate). Il loro utilizzo continuò negli anni '70. Sono fogli di cartone sottile con fori in alcuni punti. Le informazioni venivano registrate da varie sequenze di questi fori.

1820 Charles Xavier Thomas (sì, quasi come il Professor X) lancia la Thomas Addition Machine, che passò alla storia come il primo dispositivo di conteggio prodotto in serie.

1835 Charles Babbage vuole inventare il proprio motore analitico e lo descrive. Inizialmente, lo scopo del dispositivo era quello di calcolare tabelle logaritmiche con elevata precisione, ma in seguito Babbage cambiò idea. Ora il suo sogno era un'auto per uso generale. A quel tempo, la creazione di un dispositivo del genere era del tutto possibile, ma lavorare con Babbage si è rivelato difficile a causa del suo carattere. A causa di disaccordi, il progetto è stato chiuso.

1845 Israel Staffel crea il primo dispositivo in assoluto in grado di estrarre radici quadrate dai numeri.

1905 Percy Ludgert pubblica un progetto per un computer meccanico programmabile.

1936 Konrad Zuse decide di creare il proprio computer. Lo chiama Z1.

1941 Konrad Zuse lancia lo Z3, il primo computer al mondo controllato da software. Successivamente furono rilasciate diverse dozzine di altri dispositivi della serie Z.

1961 Lancio di ANITA Mark VII, la prima calcolatrice completamente elettronica al mondo.

Qualche parola sulle generazioni di computer.

1a generazione. Questi sono i cosiddetti computer a tubi. Funzionano utilizzando tubi a vuoto. Il primo di questi dispositivi fu creato a metà del XX secolo.

2a generazione. Tutti usavano i computer di prima generazione, finché all'improvviso, nel 1947, Walter Brattain e John Bardeen inventarono una cosa molto importante: il transistor. Ecco come è apparsa la seconda generazione di computer. Consumavano molta meno energia ed erano più produttivi. Questi dispositivi erano comuni negli anni '50 e '60 del XX secolo, fino all'invenzione del circuito integrato nel 1958.

3a generazione. Il funzionamento di questi computer era basato su circuiti integrati. Ciascuno di questi circuiti contiene centinaia di milioni di transistor. Tuttavia, la creazione della terza generazione non ha fermato la produzione dei computer di seconda generazione.

4a generazione. Nel 1969 Ted Hoff ebbe l'idea di sostituire molti circuiti integrati con un piccolo dispositivo. Successivamente fu chiamato microcircuito. Grazie a ciò è diventato possibile creare microcomputer molto piccoli. Il primo dispositivo di questo tipo è stato rilasciato da Intel. E negli anni '80, i più comuni erano microprocessori e microcomputer. Li usiamo ancora adesso.

Questa era una breve storia dello sviluppo della tecnologia informatica e della tecnologia informatica. Spero di essere riuscito a interessarti. Arrivederci!

Non appena una persona ha scoperto il concetto di "quantità", ha immediatamente iniziato a selezionare strumenti che ottimizzassero e facilitassero il conteggio. Oggi computer superpotenti, basati sui principi dei calcoli matematici, elaborano, archiviano e trasmettono informazioni: la risorsa e il motore più importante del progresso umano. Non è difficile farsi un'idea di come sia avvenuto lo sviluppo della tecnologia informatica considerando brevemente le fasi principali di questo processo.

Le fasi principali dello sviluppo della tecnologia informatica

La classificazione più popolare propone di evidenziare le fasi principali dello sviluppo della tecnologia informatica su base cronologica:

  • Fase manuale. Cominciò agli albori dell'era umana e continuò fino alla metà del XVII secolo. Durante questo periodo emersero le basi del conteggio. Successivamente, con la formazione dei sistemi numerici posizionali, apparvero dispositivi (abaco, abaco e successivamente un regolo calcolatore) che rendevano possibili i calcoli tramite cifre.
  • Stadio meccanico. Cominciò a metà del XVII secolo e durò quasi fino alla fine del XIX secolo. Il livello di sviluppo della scienza durante questo periodo ha permesso di creare dispositivi meccanici che eseguono operazioni aritmetiche di base e ricordano automaticamente le cifre più alte.
  • La fase elettromeccanica è la più breve di tutte quelle che uniscono la storia dello sviluppo della tecnologia informatica. Durò solo circa 60 anni. Questo è il periodo che va dall'invenzione del primo tabulatore nel 1887 fino al 1946, quando apparve il primo computer (ENIAC). Nuove macchine, il cui funzionamento si basava su un azionamento elettrico e un relè elettrico, consentivano di eseguire calcoli con una velocità e una precisione molto maggiori, ma il processo di conteggio doveva ancora essere controllato da una persona.
  • La fase elettronica è iniziata nella seconda metà del secolo scorso e continua ancora oggi. Questa è la storia di sei generazioni di computer elettronici: dalle primissime unità giganti, basate su tubi a vuoto, ai moderni supercomputer ultrapotenti con un numero enorme di processori funzionanti in parallelo, in grado di eseguire simultaneamente molti comandi.

Le fasi di sviluppo della tecnologia informatica sono suddivise secondo un principio cronologico piuttosto arbitrario. Nel momento in cui erano in uso alcuni tipi di computer, si stavano creando attivamente i prerequisiti per l'emergere di quanto segue.

I primi dispositivi di conteggio

Il primo strumento di conteggio conosciuto nella storia dello sviluppo della tecnologia informatica sono le dieci dita delle mani umane. I risultati del conteggio venivano inizialmente registrati utilizzando le dita, tacche su legno e pietra, bastoncini speciali e nodi.

Con l'avvento della scrittura apparvero e si svilupparono vari modi di scrivere i numeri e furono inventati i sistemi numerici posizionali (decimale in India, sessagesimale in Babilonia).

Intorno al IV secolo a.C. gli antichi greci iniziarono a contare utilizzando l'abaco. Inizialmente si trattava di una tavoletta piatta di argilla con strisce applicate su di essa con un oggetto appuntito. Il conteggio veniva effettuato posizionando piccole pietre o altri piccoli oggetti su queste strisce in un certo ordine.

In Cina, nel IV secolo d.C., apparve un abaco a sette punte: suanpan (suanpan). Fili o funi, nove o più, venivano tesi su un telaio di legno rettangolare. Un altro filo (fune), teso perpendicolarmente agli altri, divideva il suanpan in due parti disuguali. Nel compartimento più grande, chiamato “terra”, c’erano cinque ossa legate a fili, nel compartimento più piccolo, chiamato “cielo”, ce n’erano due. Ciascuno dei fili corrispondeva a una cifra decimale.

Il tradizionale abaco sorobano è diventato popolare in Giappone a partire dal XVI secolo, essendo arrivato lì dalla Cina. Allo stesso tempo, l'abaco è apparso in Russia.

Nel XVII secolo, sulla base dei logaritmi scoperti dal matematico scozzese John Napier, l'inglese Edmond Gunter inventò il regolo calcolatore. Questo dispositivo è stato costantemente migliorato ed è sopravvissuto fino ad oggi. Permette di moltiplicare e dividere numeri, elevare a potenze, determinare logaritmi e funzioni trigonometriche.

Il regolo calcolatore divenne un dispositivo che completò lo sviluppo della tecnologia informatica nella fase manuale (pre-meccanica).

I primi calcolatori meccanici

Nel 1623, lo scienziato tedesco Wilhelm Schickard creò la prima "calcolatrice" meccanica, che chiamò orologio di conteggio. Il meccanismo di questo dispositivo somigliava a un normale orologio, costituito da ingranaggi e ruote dentate. Tuttavia, questa invenzione divenne nota solo a metà del secolo scorso.

Un salto di qualità nel campo della tecnologia informatica fu l'invenzione della macchina addizionatrice Pascalina nel 1642. Il suo creatore, il matematico francese Blaise Pascal, iniziò a lavorare su questo dispositivo quando non aveva nemmeno 20 anni. "Pascalina" era un dispositivo meccanico a forma di scatola con un gran numero di ingranaggi interconnessi. I numeri da aggiungere venivano inseriti nella macchina girando apposite ruote.

Nel 1673, il matematico e filosofo sassone Gottfried von Leibniz inventò una macchina che eseguiva le quattro operazioni matematiche fondamentali e poteva estrarre la radice quadrata. Il principio del suo funzionamento era basato sul sistema di numeri binari, inventato appositamente dallo scienziato.

Nel 1818, il francese Charles (Karl) Xavier Thomas de Colmar, prendendo come base le idee di Leibniz, inventò una macchina addizionatrice in grado di moltiplicarsi e dividersi. E due anni dopo, l'inglese Charles Babbage iniziò a costruire una macchina in grado di eseguire calcoli con una precisione di 20 cifre decimali. Questo progetto rimase incompiuto, ma nel 1830 il suo autore ne sviluppò un altro: un motore analitico per eseguire calcoli scientifici e tecnici accurati. Si supponeva che la macchina fosse controllata da un software e che per inserire e produrre informazioni si dovessero utilizzare schede perforate con diverse posizioni dei fori. Il progetto di Babbage prevedeva lo sviluppo della tecnologia informatica elettronica e i problemi che avrebbero potuto essere risolti con il suo aiuto.

È interessante notare che la fama del primo programmatore al mondo appartiene a una donna: Lady Ada Lovelace (nata Byron). È stata lei a creare i primi programmi per il computer di Babbage. Successivamente uno dei linguaggi informatici prese il suo nome.

Sviluppo dei primi analoghi informatici

Nel 1887, la storia dello sviluppo della tecnologia informatica entrò in una nuova fase. L'ingegnere americano Herman Hollerith (Hollerith) è riuscito a progettare il primo computer elettromeccanico: il tabulatore. Il suo meccanismo aveva un relè, oltre a contatori e una speciale scatola di smistamento. Il dispositivo leggeva e ordinava i record statistici effettuati su schede perforate. Successivamente, l'azienda fondata da Hollerith divenne la spina dorsale del gigante informatico IBM, famoso in tutto il mondo.

Nel 1930, l'americano Vannovar Bush creò un analizzatore differenziale. Era alimentato dall'elettricità e i tubi a vuoto venivano utilizzati per memorizzare i dati. Questa macchina era in grado di trovare rapidamente soluzioni a problemi matematici complessi.

Sei anni dopo, lo scienziato inglese Alan Turing sviluppò il concetto di macchina, che divenne la base teorica per i computer moderni. Aveva tutte le principali proprietà della moderna tecnologia informatica: poteva eseguire passo dopo passo le operazioni programmate nella memoria interna.

Un anno dopo, George Stibitz, uno scienziato statunitense, inventò il primo dispositivo elettromeccanico del paese in grado di eseguire addizioni binarie. Le sue operazioni erano basate sull'algebra booleana, la logica matematica creata a metà del XIX secolo da George Boole: l'uso degli operatori logici AND, OR e NOT. Successivamente il sommatore binario diventerà parte integrante del computer digitale.

Nel 1938, Claude Shannon, un dipendente dell'Università del Massachusetts, delineò i principi della progettazione logica di un computer che utilizza circuiti elettrici per risolvere problemi di algebra booleana.

L'inizio dell'era informatica

I governi dei paesi coinvolti nella Seconda Guerra Mondiale erano consapevoli del ruolo strategico dell’informatica nella conduzione delle operazioni militari. Questo è stato l'impulso per lo sviluppo e la parallela affermazione della prima generazione di computer in questi paesi.

Un pioniere nel campo dell'ingegneria informatica fu Konrad Zuse, un ingegnere tedesco. Nel 1941 creò il primo computer controllato da un programma. La macchina, chiamata Z3, era costruita su relè telefonici e i suoi programmi erano codificati su nastro perforato. Questo dispositivo era in grado di funzionare nel sistema binario e di funzionare anche con numeri in virgola mobile.

Il modello successivo della macchina di Zuse, lo Z4, è ufficialmente riconosciuto come il primo computer programmabile veramente funzionante. Passò alla storia anche come ideatore del primo linguaggio di programmazione di alto livello, chiamato Plankalküll.

Nel 1942, i ricercatori americani John Atanasoff (Atanasoff) e Clifford Berry crearono un dispositivo informatico che funzionava su tubi a vuoto. La macchina utilizzava anche un codice binario e poteva eseguire una serie di operazioni logiche.

Nel 1943, in un laboratorio governativo inglese, in un'atmosfera di segretezza, fu costruito il primo computer, chiamato “Colossus”. Invece di relè elettromeccanici, utilizzava 2mila tubi elettronici per archiviare ed elaborare le informazioni. Lo scopo era quello di decifrare e decifrare il codice dei messaggi segreti trasmessi dalla macchina di crittografia tedesca Enigma, ampiamente utilizzata dalla Wehrmacht. L'esistenza di questo dispositivo è stata mantenuta nella massima riservatezza per molto tempo. Dopo la fine della guerra, l'ordine di distruzione fu firmato personalmente da Winston Churchill.

Sviluppo dell'architettura

Nel 1945, il matematico americano-ungherese John (Janos Lajos) von Neumann creò il prototipo dell'architettura dei computer moderni. Propose di scrivere un programma sotto forma di codice direttamente nella memoria della macchina, il che implica la memorizzazione congiunta di programmi e dati nella memoria del computer.

L'architettura di Von Neumann costituì la base per il primo computer elettronico universale, l'ENIAC, creato in quel periodo negli Stati Uniti. Questo gigante pesava circa 30 tonnellate e si trovava su 170 metri quadrati di superficie. Nel funzionamento della macchina sono state utilizzate 18mila lampade. Questo computer potrebbe eseguire 300 operazioni di moltiplicazione o 5mila addizioni in un secondo.

Il primo computer programmabile universale d'Europa fu creato nel 1950 nell'Unione Sovietica (Ucraina). Un gruppo di scienziati di Kiev, guidati da Sergei Alekseevich Lebedev, ha progettato una piccola macchina calcolatrice elettronica (MESM). La sua velocità era di 50 operazioni al secondo, conteneva circa 6mila tubi a vuoto.

Nel 1952, la tecnologia informatica domestica fu reintegrata con BESM, una grande macchina calcolatrice elettronica, anch'essa sviluppata sotto la guida di Lebedev. Questo computer, che eseguiva fino a 10mila operazioni al secondo, era a quel tempo il più veloce d'Europa. Le informazioni venivano immesse nella memoria della macchina utilizzando nastro di carta perforata e i dati venivano stampati tramite stampa fotografica.

Nello stesso periodo, nell'URSS fu prodotta una serie di computer di grandi dimensioni con il nome generale "Strela" (l'autore dello sviluppo era Yuri Yakovlevich Bazilevsky). Dal 1954, a Penza iniziò la produzione in serie del computer universale "Ural" sotto la guida di Bashir Rameev. Gli ultimi modelli erano hardware e software compatibili tra loro, c'era un'ampia selezione di dispositivi periferici che consentivano di assemblare macchine di varie configurazioni.

Transistor. Rilascio dei primi computer seriali

Tuttavia, le lampade si guastavano molto rapidamente, rendendo molto difficile il lavoro con la macchina. Il transistor, inventato nel 1947, riuscì a risolvere questo problema. Sfruttando le proprietà elettriche dei semiconduttori, svolgeva gli stessi compiti dei tubi a vuoto, ma occupava molto meno spazio e non consumava tanta energia. Insieme all'avvento dei nuclei di ferrite per l'organizzazione della memoria del computer, l'uso dei transistor ha permesso di ridurre significativamente le dimensioni delle macchine, rendendole ancora più affidabili e veloci.

Nel 1954, la società americana Texas Instruments iniziò la produzione di massa di transistor e due anni dopo apparve in Massachusetts il primo computer di seconda generazione costruito su transistor, il TX-O.

A metà del secolo scorso, una parte significativa delle organizzazioni governative e delle grandi aziende utilizzava i computer per calcoli scientifici, finanziari, ingegneristici e per lavorare con grandi quantità di dati. A poco a poco, i computer hanno acquisito caratteristiche a noi familiari oggi. Durante questo periodo apparvero plotter, stampanti e supporti di memorizzazione su dischi e nastri magnetici.

L'uso attivo della tecnologia informatica ha portato ad un ampliamento delle aree della sua applicazione e ha richiesto la creazione di nuove tecnologie software. Sono comparsi linguaggi di programmazione di alto livello che consentono di trasferire programmi da una macchina all'altra e semplificare il processo di scrittura del codice (Fortran, Cobol e altri). Sono comparsi programmi di traduzione speciali che convertono il codice di questi linguaggi in comandi che possono essere percepiti direttamente dalla macchina.

La nascita dei circuiti integrati

Nel 1958-1960, grazie agli ingegneri statunitensi Robert Noyce e Jack Kilby, il mondo venne a conoscenza dell'esistenza dei circuiti integrati. Transistor in miniatura e altri componenti, a volte fino a centinaia o migliaia, erano montati su una base di cristallo di silicio o germanio. I chip, grandi poco più di un centimetro, erano molto più veloci dei transistor e consumavano molta meno energia. La storia dello sviluppo della tecnologia informatica collega il loro aspetto con l'emergere della terza generazione di computer.

Nel 1964, IBM pubblicò il primo computer della famiglia SYSTEM 360, basato su circuiti integrati. Da questo momento in poi si può contare la produzione di massa di computer. In totale sono state prodotte più di 20mila copie di questo computer.

Nel 1972, l’URSS sviluppò il computer ES (serie unificata). Si trattava di complessi standardizzati per il funzionamento di centri informatici che avevano un sistema di comando comune. Come base è stato preso il sistema americano IBM 360.

L'anno successivo, la DEC pubblicò il minicomputer PDP-8, il primo progetto commerciale in quest'area. Il costo relativamente basso dei minicomputer ha reso possibile il loro utilizzo da parte di piccole organizzazioni.

Nello stesso periodo il software è stato costantemente migliorato. Sono stati sviluppati sistemi operativi volti a supportare il numero massimo di dispositivi esterni e sono apparsi nuovi programmi. Nel 1964 svilupparono BASIC, un linguaggio progettato specificamente per la formazione dei programmatori alle prime armi. Cinque anni dopo apparve Pascal, che si rivelò molto conveniente per risolvere molti problemi applicativi.

Computer personale

Dopo il 1970 iniziò la produzione della quarta generazione di computer. Lo sviluppo della tecnologia informatica in questo momento è caratterizzato dall'introduzione di grandi circuiti integrati nella produzione di computer. Tali macchine potevano ora eseguire migliaia di milioni di operazioni di calcolo in un secondo e la loro capacità RAM era aumentata a 500 milioni di bit. Una significativa riduzione del costo dei microcomputer ha portato al fatto che l'opportunità di acquistarli è diventata gradualmente disponibile per la persona media.

Apple è stata uno dei primi produttori di personal computer. I suoi creatori, Steve Jobs e Steve Wozniak, progettarono il primo modello di PC nel 1976, dandogli il nome Apple I. Costava solo 500 dollari. Un anno dopo fu presentato il modello successivo di questa azienda: Apple II.

Il computer di questo periodo divenne per la prima volta simile a un elettrodomestico: oltre alle dimensioni compatte, aveva un design elegante e un'interfaccia user-friendly. La proliferazione dei personal computer alla fine degli anni '70 fece sì che la domanda di computer mainframe diminuisse notevolmente. Questo fatto preoccupò seriamente il loro produttore, IBM, che nel 1979 lanciò sul mercato il suo primo PC.

Due anni dopo apparve il primo microcomputer dell'azienda con un'architettura aperta, basato sul microprocessore 8088 a 16 bit prodotto da Intel. Il computer era dotato di uno schermo monocromatico, due unità per floppy disk da cinque pollici e 64 kilobyte di RAM. Per conto dell'azienda creatrice, Microsoft ha sviluppato un sistema operativo appositamente per questa macchina. Sul mercato apparvero numerosi cloni di PC IBM, che stimolarono la crescita della produzione industriale di personal computer.

Nel 1984, Apple sviluppò e pubblicò un nuovo computer: il Macintosh. Il suo sistema operativo era estremamente facile da usare: presentava i comandi sotto forma di immagini grafiche e consentiva di inserirli utilizzando il mouse. Ciò ha reso il computer ancora più accessibile, poiché ora non erano richieste competenze speciali da parte dell'utente.

Alcune fonti datano i computer della quinta generazione di tecnologia informatica al periodo 1992-2013. In breve, il loro concetto principale è formulato come segue: si tratta di computer creati sulla base di microprocessori altamente complessi, aventi una struttura a vettori paralleli, che consente di eseguire contemporaneamente dozzine di comandi sequenziali incorporati nel programma. Macchine con diverse centinaia di processori che lavorano in parallelo consentono di elaborare i dati in modo ancora più preciso e veloce e di creare reti efficienti.

Lo sviluppo della moderna tecnologia informatica ci consente già di parlare di computer di sesta generazione. Si tratta di computer elettronici e optoelettronici che funzionano su decine di migliaia di microprocessori, caratterizzati da un massiccio parallelismo e che modellano l'architettura dei sistemi biologici neurali, che consente loro di riconoscere con successo immagini complesse.

Dopo aver esaminato costantemente tutte le fasi dello sviluppo della tecnologia informatica, va notato un fatto interessante: le invenzioni che si sono dimostrate efficaci in ciascuna di esse sono sopravvissute fino ad oggi e continuano ad essere utilizzate con successo.

Lezioni di informatica

Esistono varie opzioni per classificare i computer.

Quindi, in base al loro scopo, i computer sono divisi:

  • a quelli universali - quelli che sono in grado di risolvere un'ampia varietà di problemi matematici, economici, ingegneristici, tecnici, scientifici e di altro tipo;
  • orientato ai problemi: risoluzione di problemi di direzione più ristretta, associati, di norma, alla gestione di determinati processi (registrazione dei dati, accumulo ed elaborazione di piccole quantità di informazioni, esecuzione di calcoli secondo semplici algoritmi). Hanno risorse software e hardware più limitate rispetto al primo gruppo di computer;
  • i computer specializzati di solito risolvono compiti rigorosamente definiti. Hanno una struttura altamente specializzata e, con una complessità relativamente bassa del dispositivo e del controllo, sono abbastanza affidabili e produttivi nel loro campo. Si tratta, ad esempio, di controller o adattatori che controllano una serie di dispositivi, nonché di microprocessori programmabili.

In base alle dimensioni e alla capacità produttiva, le moderne apparecchiature informatiche elettroniche si dividono in:

  • agli ultra-grandi (supercomputer);
  • computer di grandi dimensioni;
  • piccoli computer;
  • ultra-piccoli (microcomputer).

Pertanto, abbiamo visto che i dispositivi, inventati prima dall'uomo per tenere conto di risorse e valori, e poi per eseguire calcoli complessi e operazioni computazionali in modo rapido e accurato, erano in costante sviluppo e miglioramento.

Mezzi tecnici per l'implementazione dei processi informativi

La storia dello sviluppo della VT comprende diversi periodi: meccanico, elettromeccanico ed elettronico.

Per effettuare calcoli nell'antica Babilonia (circa 3mila anni a.C.), e poi nell'antica Grecia e nell'antica Roma (IV secolo a.C.), si utilizzavano tavole di conteggio chiamate abaco. La tavola dell'abaco era una lastra di argilla con rientranze in cui venivano collocati i ciottoli. Successivamente le rientranze furono sostituite da fili con ossi cordati (il prototipo del conteggio).

Nel XVII secolo in Europa, i matematici (V. Schiccard (1623 ᴦ.) e Blaise Pascal (1642 ᴦ.), G. Leibniz (1671 ᴦ.)) inventarono macchine meccaniche, in grado di eseguire automaticamente operazioni aritmetiche (un prototipo di macchina addizionatrice).

Nel primo terzo del XIX secolo, il matematico inglese C. Babbage sviluppò un progetto per un dispositivo di calcolo meccanico automatico programmabile noto come Motore analitico di Babbage. La mecenate del progetto, la contessa Ada Augusta Lovelace, è stata la programmatrice di questo "motore analitico".

G. Hollerith nel 1888. creato elettromeccanico una macchina che consisteva in un perforatore, uno smistatore di schede perforate e una macchina addizionatrice chiamata tabulatore. Questa macchina è stata utilizzata per la prima volta negli Stati Uniti durante l'elaborazione dei risultati del censimento.

La velocità dei calcoli nelle macchine meccaniche ed elettromeccaniche era limitata, e quindi negli anni '30. lo sviluppo è iniziato elettronico computer, la cui base elementare era un tubo a vuoto a tre elettrodi.

Nel 1946 ᴦ. all'università ᴦ. Pennsylvania (USA) fu costruito un computer elettronico, chiamato UNIAK. La macchina pesava 30 tonnellate, occupava un'area di 200 metri quadrati e conteneva 18.000 lampade. La programmazione è stata effettuata installando interruttori e collegando connettori. Di conseguenza, anche il programma più semplice richiedeva molto tempo per essere creato ed eseguito. Le difficoltà nella programmazione su UNIAK spinsero John von Neumann, che era un consulente del progetto, a sviluppare nuovi principi per costruire un'architettura di computer.

In URSS, il primo computer fu creato nel 1948.

La storia dello sviluppo del computer viene solitamente considerata per generazione.

Prima generazione(1946-1960) - ϶ᴛᴏ il tempo della formazione dell'architettura delle macchine del tipo von Neumann, costruite su tubi a vuoto con una velocità di 10-20 mila op/s. I computer di prima generazione erano ingombranti e inaffidabili. gli strumenti software erano rappresentati dai linguaggi macchina.

Nel 1950 ᴦ. In URSS fu messa in funzione la MESM (piccola macchina calcolatrice elettronica) e due anni dopo apparve una grande macchina calcolatrice elettronica (10mila op/s).

Seconda generazione(1960 – 1964) - macchine costruite su transistor con velocità fino a centinaia di migliaia di operazioni al secondo. I tamburi magnetici venivano utilizzati per organizzare la memoria esterna e i nuclei magnetici venivano utilizzati per la memoria principale. Allo stesso tempo furono sviluppati linguaggi algoritmici di alto livello come Algol, Cobol, Fortran, che permisero di comporre programmi senza tenere conto del tipo di macchina. Il primo computer con le caratteristiche distintive della seconda generazione fu l'IBM 704.

Terza generazione(1964 – 1970) sono caratterizzati dal fatto che al posto dei transistor iniziarono ad essere utilizzati circuiti integrati (IC) e memorie a semiconduttore.

La maggior parte delle macchine appartenenti alla terza generazione in termini di caratteristiche facevano parte della serie (famiglia) di macchine “System/360” (analoghe al computer ES), lanciate dalla IBM a metà degli anni '60. Le macchine di questa serie avevano un'unica architettura ed erano compatibili via software.

In quel periodo apparve in URSS il primo supercomputer BESM 6, che aveva una produttività di 1 milione di operazioni/s.

Quarta generazione(1970 – 1980) - ϶ᴛᴏ macchine costruite su grandi circuiti integrati (LSI). Tali circuiti contengono fino a diverse decine di migliaia di elementi per chip. I computer di questa generazione eseguono decine e centinaia di milioni di operazioni al secondo.

Nel 1971. Apparve il primo microprocessore a quattro bit al mondo Intel 4004, contenente 2300 transistor su un chip, e un anno dopo apparve il processore a otto bit Intel 8008. La creazione di microprocessori è servita come base per lo sviluppo di un personal computer (PC) , ᴛ.ᴇ. un dispositivo che esegue le stesse funzioni di un computer di grandi dimensioni, ma è progettato per essere utilizzato da un solo utente.

1973ᴦ. Xerox ha creato il primo prototipo di personal computer.

1974ᴦ. apparve il primo personal computer distribuito commercialmente Altair-8800, per il quale alla fine del 1975 ᴦ. Paul Allen e Bill Gates hanno scritto un interprete per il linguaggio BASIC.

Nell'agosto 1981 ᴦ. IBM ha rilasciato il PC IBM. Come microprocessore principale venne utilizzato l'allora nuovo microprocessore Intel 8088 a 16 bit.Il PC fu costruito secondo i principi dell'architettura aperta. Gli utenti hanno potuto aggiornare autonomamente i propri computer e dotarli di dispositivi aggiuntivi di diversi produttori. Dopo uno o due anni, il PC IBM assunse una posizione di leadership nel mercato, soppiantando i modelli di computer a 8 bit.

Oggi esistono molti tipi di computer, classificati in base alla base degli elementi, ai principi di funzionamento, al costo, alle dimensioni, alle prestazioni, allo scopo e alle aree di applicazione.

Supercomputer E computer centrali(mainframe) - utilizzato per calcoli scientifici complessi o per l'elaborazione di grandi flussi di informazioni nelle grandi imprese. Οʜᴎ, di regola, sono i principali computer delle reti informatiche aziendali.

Mini- E microcomputer utilizzato per creare sistemi di controllo per le grandi e medie imprese.

Computer personale destinati all'utente finale. A loro volta, i PC si dividono in modelli desktop (desktop), portatili (notebook) e tascabili (palmtop).

Storia dello sviluppo della tecnologia informatica: concetto e tipi. Classificazione e caratteristiche della categoria "Storia dello sviluppo della tecnologia informatica" 2017, 2018.

  • - Storia dello sviluppo della tecnologia informatica

    La necessità di automatizzare l’elaborazione dei dati, compresi i calcoli, è nata molto tempo fa. Si ritiene che storicamente il primo e, di conseguenza, il dispositivo di conteggio più semplice fosse l'abaco, che si riferisce ai dispositivi di conteggio portatili. Abaco - tavola per contare...


  • - Storia dello sviluppo della tecnologia informatica

    La storia dello sviluppo della tecnologia informatica risale a molto tempo fa. Già nel XIV secolo. Leonardo da Vinci ha sviluppato un progetto per un dispositivo di addizione a 13 bit. Il modello attuale fu costruito nel 1642 dal famoso fisico, matematico e ingegnere francese Blaise Pascal. Il suo... .


  • - BREVE STORIA DELLO SVILUPPO DELL'INGEGNERIA INFORMATICA.

    1623 La prima "macchina per contare" creata da William Schickard. Questo apparato piuttosto ingombrante poteva applicare semplici operazioni aritmetiche (addizione, sottrazione) con numeri di 7 cifre. 1644 La "Calcola" di Blaise Pascal è la prima macchina calcolatrice veramente popolare...

  • Storia della creazione e dello sviluppo della tecnologia informatica

    Nella tecnologia informatica esiste una peculiare periodizzazione dello sviluppo dei computer elettronici. Un computer viene classificato in una generazione o nell'altra a seconda del tipo di elementi principali utilizzati o della tecnologia di fabbricazione. È chiaro che i confini delle generazioni in termini di tempo sono molto labili, poiché contemporaneamente venivano effettivamente prodotti computer di vario tipo; Per una singola macchina, la questione se appartiene a una generazione o all'altra è risolta in modo abbastanza semplice.

    Anche ai tempi delle culture antiche, le persone dovevano risolvere problemi relativi ai calcoli commerciali, al calcolo del tempo, alla determinazione dell'area del terreno, ecc. L'aumento del volume di questi calcoli portò addirittura al fatto che furono invitate persone appositamente addestrate da un paese all'altro, esperto nelle tecniche di conteggio aritmetico. Pertanto, prima o poi dovevano apparire dispositivi che rendessero più facili i calcoli quotidiani. Così, nell'antica Grecia e nell'antica Roma, furono creati dispositivi di conteggio chiamati abaco. L'abaco è anche chiamato abaco romano. Questi abachi erano una tavola di osso, pietra o bronzo con scanalature chiamate strisce. C'erano delle tessere del domino nei recessi e il conteggio veniva effettuato spostando le tessere del domino.

    Nei paesi dell'Antico Oriente c'erano gli abachi cinesi. C'erano cinque tessere del domino su ciascun filo o filo in questo abaco. Il conteggio veniva effettuato in unità e cinque. In Russia, l'abaco russo, apparso nel XVI secolo, veniva utilizzato per i calcoli aritmetici, ma in alcuni luoghi si può trovare ancora oggi l'abaco.

    Lo sviluppo dei dispositivi di conteggio è andato di pari passo con le conquiste della matematica. Poco dopo la scoperta dei logaritmi nel 1623, il matematico inglese Edmond Gunther inventò il regolo calcolatore. Il regolo calcolatore era destinato ad avere lunga vita: dal XVII secolo ai giorni nostri.

    Tuttavia, né l'abaco, né l'abaco, né il regolo calcolatore significano meccanizzazione del processo di calcolo. Nel XVII secolo, l'eccezionale scienziato francese Blaise Pascal inventò un dispositivo di calcolo fondamentalmente nuovo: la macchina aritmetica. B. Pascal ha basato il suo lavoro sulla nota idea di eseguire calcoli utilizzando ingranaggi metallici. Nel 1645 costruì la prima macchina addizionatrice e nel 1675 Pascal riuscì a creare una vera macchina in grado di eseguire tutte e quattro le operazioni aritmetiche. Quasi contemporaneamente a Pascal nel 1660-1680. La macchina calcolatrice è stata progettata dal grande matematico tedesco Gottfierd Leibniz.

    Le macchine calcolatrici di Pascal e Leibniz divennero il prototipo della macchina addizionatrice. Il primo aritmometro per quattro operazioni aritmetiche, che trovò applicazione aritmetica, fu costruito solo cento anni dopo, nel 1790, dall'orologiaio tedesco Hahn. Successivamente, il dispositivo della macchina addizionatrice fu migliorato da molti meccanici provenienti da Inghilterra, Francia, Italia, Russia e Svizzera. Gli aritmometri venivano utilizzati per eseguire calcoli complessi nella progettazione e nella costruzione delle navi. Ponti, edifici, durante le transazioni finanziarie. Ma la produttività delle macchine addizionatrici rimaneva bassa; l’automazione dei calcoli era un’esigenza urgente dell’epoca.

    Nel 1833, lo scienziato inglese Charles Babage, coinvolto nella compilazione di tabelle per la navigazione, sviluppò un progetto per una “macchina analitica”. Secondo il suo piano, questa macchina doveva diventare una gigantesca macchina addizionatrice controllata da un programma. La macchina di Babage comprendeva anche dispositivi aritmetici e di archiviazione. La sua macchina divenne il prototipo dei futuri computer. Ma utilizzava componenti tutt’altro che perfetti; ad esempio, utilizzava ingranaggi per ricordare le cifre di un numero decimale. Babidge non riuscì a realizzare il suo progetto a causa dello sviluppo insufficiente della tecnologia e il “motore analitico” fu per un po’ dimenticato.

    Solo 100 anni dopo, la macchina di Babidge attirò l'attenzione degli ingegneri. Alla fine degli anni '30 del XX secolo, l'ingegnere tedesco Konrad Zuse sviluppò la prima macchina digitale binaria Z1. Si faceva largo uso di relè elettromeccanici, cioè di interruttori meccanici azionati dalla corrente elettrica. Nel 1941 K. Wujie creò la macchina Z3, completamente controllata da un software.

    Nel 1944, l'americano Howard Aiken, in una delle imprese IBM, costruì la Mark 1, una macchina potente per quei tempi. Questa macchina utilizzava elementi meccanici - ruote di conteggio - per rappresentare i numeri e relè elettromeccanici per il controllo.

    Generazioni informatiche

    È conveniente descrivere la storia dello sviluppo dei computer utilizzando l'idea di generazioni di computer. Ogni generazione di computer è caratterizzata da caratteristiche e capacità di progettazione. Cominciamo a descrivere ciascuna delle generazioni, ma dobbiamo ricordare che la divisione dei computer in generazioni è condizionata, poiché contemporaneamente sono state prodotte macchine di diversi livelli.

    Prima generazione

    Un netto balzo nello sviluppo della tecnologia informatica avvenne negli anni '40, dopo la seconda guerra mondiale, e fu associato all'avvento di dispositivi elettronici qualitativamente nuovi: tubi a vuoto elettronici, che funzionavano molto più velocemente dei circuiti basati su relè elettromeccanici, e relè le macchine furono rapidamente sostituite da macchine più produttive e computer elettronici affidabili (computer). L'uso dei computer ha notevolmente ampliato la gamma dei problemi da risolvere. Sono diventati disponibili compiti che semplicemente non erano stati posti prima: calcoli di strutture ingegneristiche, calcoli del movimento dei pianeti, calcoli balistici, ecc.

    Il primo computer fu creato nel 1943-1946. negli USA e si chiamava ENIAC. Questa macchina conteneva circa 18mila tubi a vuoto, molti relè elettromeccanici e circa 2mila tubi si guastavano ogni mese. Il centro di controllo della macchina ENIAC, così come altri primi computer, presentava un grave inconveniente: il programma eseguibile non veniva archiviato nella memoria della macchina, ma veniva accumulato in modo complesso utilizzando ponticelli esterni.

    Nel 1945, il famoso matematico e fisico teorico von Neumann formulò i principi generali di funzionamento dei dispositivi informatici universali. Secondo von Neumann, il computer doveva essere controllato da un programma con esecuzione sequenziale di comandi, e il programma stesso doveva essere archiviato nella memoria della macchina. Il primo computer con programma memorizzato fu costruito in Inghilterra nel 1949.

    Nel 1951, nell'URSS fu creato il MESM; questo lavoro fu svolto a Kiev presso l'Istituto di Elettrodinamica sotto la guida del più grande progettista di tecnologia informatica S. A. Lebedev.

    I computer venivano costantemente migliorati, grazie ai quali verso la metà degli anni '50 le loro prestazioni aumentarono da diverse centinaia a diverse decine di migliaia di operazioni al secondo. Tuttavia, il tubo elettronico è rimasto l'elemento più affidabile del computer. L'uso delle lampade ha cominciato a rallentare l'ulteriore progresso della tecnologia informatica.

    Successivamente, i dispositivi a semiconduttore hanno sostituito le lampade, completando così la prima fase di sviluppo del computer. I computer di questa fase sono solitamente chiamati computer di prima generazione

    In effetti, i computer di prima generazione erano collocati in grandi sale computer, consumavano molta elettricità e richiedevano il raffreddamento con potenti ventole. I programmi per questi computer dovevano essere scritti in codici macchina e ciò poteva essere fatto solo da specialisti che conoscevano i dettagli della struttura del computer.

    Seconda generazione

    Gli sviluppatori di computer hanno sempre seguito il progresso della tecnologia elettronica. Quando i dispositivi a semiconduttore sostituirono i tubi a vuoto a metà degli anni '50, iniziò la conversione dei computer in semiconduttori.

    I dispositivi a semiconduttore (transistor, diodi) erano, in primo luogo, molto più compatti rispetto ai loro predecessori a tubi. In secondo luogo, avevano una durata significativamente più lunga. In terzo luogo, il consumo energetico dei computer a semiconduttore era notevolmente inferiore. Con l'introduzione degli elementi digitali sui dispositivi a semiconduttore iniziò la creazione dei computer di seconda generazione.

    Grazie all'uso di una base di elementi più avanzata, iniziarono a essere creati computer relativamente piccoli e ebbe luogo una divisione naturale dei computer in grandi, medi e piccoli.

    Nell'URSS furono sviluppate e ampiamente utilizzate le serie di piccoli computer "Hrazdan" e "Nairi". La macchina Mir, sviluppata nel 1965 presso l'Istituto di Cibernetica dell'Accademia delle Scienze della SSR ucraina, era unica nella sua architettura. Era destinato ai calcoli ingegneristici eseguiti su un computer dall'utente stesso senza l'aiuto di un operatore.

    I computer medi includevano macchine domestiche delle serie Ural, M-20 e Minsk. Ma il record tra le macchine domestiche di questa generazione e uno dei migliori al mondo è stato BESM-6 ("grande calcolatrice elettronica", modello 6), creato dal team dell'accademico S. A. Lebedev. Le prestazioni del BESM-6 erano da due a tre ordini di grandezza superiori a quelle dei computer di piccole e medie dimensioni e ammontavano a oltre 1 milione di operazioni al secondo. All'estero le macchine di seconda generazione più diffuse erano Elliot (Inghilterra), Siemens (Germania) e Stretch (USA).

    Terza generazione

    Il successivo cambiamento nelle generazioni di computer avvenne alla fine degli anni '60, quando i dispositivi semiconduttori nei computer furono sostituiti con circuiti integrati. Un circuito integrato (microcircuito) è una piccola fetta di cristallo di silicio su cui sono posizionati centinaia e migliaia di elementi: diodi, transistor, condensatori, resistori, ecc.

    L'utilizzo dei circuiti integrati ha permesso di aumentare il numero di elementi elettronici in un computer senza aumentarne le dimensioni effettive. La velocità del computer è aumentata a 10 milioni di operazioni al secondo. Inoltre, è diventato possibile per gli utenti ordinari comporre programmi per computer e non solo per gli specialisti: gli ingegneri elettronici.

    Nella terza generazione apparvero grandi serie di computer, diversi per prestazioni e scopo. Si tratta di una famiglia di macchine IBM360/370 di grandi e medie dimensioni sviluppate negli Stati Uniti. Nell'Unione Sovietica e nei paesi del Comecon furono create serie simili di macchine: ES Computers (Sistema unificato di computer, macchine di grandi e medie dimensioni), SM Computers (Sistema di piccoli computer) ed "Elettronica" (sistema di microcomputer ).

    I primi dispositivi informatici furono le dita umane. Quando questo rimedio non bastava si utilizzavano sassolini, legnetti e conchiglie. Aggiungendo un tale insieme in decine e poi in centinaia, una persona ha imparato a contare e ad usare i mezzi per misurare i numeri. Fu con ciottoli e conchiglie che iniziò la storia dello sviluppo della tecnologia informatica. Disponendoli in diverse colonne (rangi) e aggiungendo o rimuovendo il numero richiesto di ciottoli, era possibile aggiungere e sottrarre grandi numeri. Con l'aggiunta ripetuta, è stato possibile eseguire anche un'operazione così complessa come la moltiplicazione.

    Poi inizia la storia dello sviluppo dei mezzi: il primo mezzo di calcolo fu l'abaco inventato nella Rus'. In essi, i numeri erano divisi in decine utilizzando guide orizzontali con ossa. Divennero assistenti indispensabili per commercianti, funzionari, impiegati e dirigenti. Queste persone sapevano come usare l'abaco in modo semplicemente magistrale. Successivamente, un dispositivo così necessario è penetrato in Europa.

    Il primo dispositivo meccanico per il conteggio, noto alla storia dello sviluppo della tecnologia informatica, fu la macchina calcolatrice, costruita dall'eccezionale scienziato francese Blaise Pascal nel 1642. Il suo "computer" meccanico poteva eseguire operazioni come addizioni e sottrazioni. Questa vettura si chiamava “Pascalina” ed era costituita da un intero complesso in cui erano montate verticalmente ruote con numeri da 0 a 9. Quando la ruota faceva un giro completo, agganciava la ruota adiacente e la faceva girare di un numero. Il numero di ruote determinava il numero di cifre del computer. Se su di esso fossero installate cinque ruote, potrebbe già eseguire operazioni con numeri enormi fino a 99999.

    Poi, nel 1673, il matematico tedesco Leibniz creò un dispositivo in grado non solo di sottrarre e aggiungere, ma anche di dividere e moltiplicare. Al contrario, le ruote erano dentate e avevano nove denti di diversa lunghezza, che assicuravano azioni incredibilmente “complesse” come la moltiplicazione e la divisione. la tecnologia conosce molti nomi, ma un nome è noto anche ai non specialisti. Questo è un matematico inglese, meritatamente chiamato il padre di tutta la moderna tecnologia informatica. È stato lui a pensare che un computer abbia bisogno di un dispositivo che memorizzi i numeri. Inoltre, questo dispositivo non deve solo memorizzare numeri, ma anche dare comandi al computer su cosa dovrebbe fare con questi numeri.

    L'idea di Babbage ha costituito la base per la progettazione e lo sviluppo di tutti i computer moderni. Un tale blocco in un processore informatico. Tuttavia, lo scienziato non ha lasciato disegni o descrizioni della macchina da lui inventata. Ciò è stato fatto da uno dei suoi studenti nel suo articolo, che ha scritto in francese. L'articolo è stato letto dalla contessa Ada Augusta Lovelace, figlia del famoso poeta George Byron, che lo ha tradotto in inglese e ha sviluppato i propri programmi per questa macchina. Grazie a lei, la storia dello sviluppo della tecnologia informatica ha ricevuto uno dei linguaggi di programmazione più avanzati: ADA.

    Il XX secolo ha dato un nuovo impulso allo sviluppo della tecnologia informatica associata all'elettricità. È stato inventato un dispositivo elettronico che memorizzava i segnali elettrici: un trigger a tubo. I primi computer creati con il suo aiuto potevano contare migliaia di volte più velocemente delle più avanzate macchine calcolatrici meccaniche, ma erano ancora molto ingombranti. I primi computer pesavano circa 30 tonnellate e occupavano una stanza di oltre 100 metri quadrati. metri. Un ulteriore sviluppo è stato raggiunto con l'avvento di un'invenzione estremamente importante: il transistor. Ebbene, la moderna tecnologia informatica è impensabile senza l'uso di un microprocessore, un complesso circuito integrato sviluppato nel giugno 1971. Questa è una breve storia dello sviluppo della tecnologia informatica. Le moderne conquiste della scienza e della tecnologia hanno innalzato il livello dei computer moderni a livelli senza precedenti.