In quale generazione di macchine sono stati utilizzati elementi semiconduttori. Cos'è un computer? Generazioni di computer. Un elevato grado di integrazione aiuta ad aumentare la densità di confezionamento delle apparecchiature elettroniche, aumentandone l'affidabilità, il che porta ad una maggiore velocità

introduzione

1. Prima generazione di computer anni '50-'60

2. Seconda generazione di computer: anni '60-'70

3. Terza generazione di computer: anni '70-'80

4. Quarta generazione di computer: anni '80-'90

5. Quinta generazione di computer: 1990-oggi

Conclusione

introduzione

Dal 1950, ogni 7-10 anni i principi di progettazione tecnologica e algoritmica del software per la costruzione e l'utilizzo dei computer sono stati radicalmente aggiornati. A questo proposito è legittimo parlare di generazioni di computer. Convenzionalmente, a ciascuna generazione possono essere assegnati 10 anni.

I computer hanno percorso una lunga strada evolutiva in termini di elementi base (dalle lampade ai microprocessori), nonché nel senso dell'emergere di nuove capacità, ampliando la portata e la natura del loro utilizzo.

La divisione dei computer in generazioni è una classificazione molto condizionale e libera dei sistemi informatici in base al grado di sviluppo dell'hardware e del software, nonché ai metodi di comunicazione con il computer.

La prima generazione di computer comprende macchine create all'inizio degli anni '50: nei circuiti venivano utilizzati tubi a vuoto. C'erano pochi comandi, i controlli erano semplici e la capacità della RAM e gli indicatori di prestazione erano bassi. Le prestazioni sono di circa 10-20 mila operazioni al secondo. Per l'input e l'output sono stati utilizzati dispositivi di stampa, nastri magnetici, schede perforate e nastri di carta perforati.

La seconda generazione di computer comprende quelle macchine progettate nel 1955-65. Hanno usato sia tubi a vuoto che transistor. La RAM è stata costruita su nuclei magnetici. In questo periodo apparvero i tamburi magnetici e i primi dischi magnetici. Sono comparsi i cosiddetti linguaggi di alto livello, i cui mezzi consentono la descrizione dell'intera sequenza di calcoli in una forma visiva e facilmente comprensibile. È apparsa un'ampia gamma di programmi di libreria per risolvere vari problemi matematici. Le macchine di seconda generazione erano caratterizzate da incompatibilità software, che rendevano difficile l'organizzazione di grandi sistemi informativi, quindi a metà degli anni '60 si passò alla creazione di computer compatibili con il software e costruiti su una base tecnologica microelettronica.

Terza generazione di computer. Si tratta di macchine nate dopo gli anni '60 che hanno un'unica architettura, cioè compatibile con il software. Sono apparse capacità di multiprogrammazione, ad es. esecuzione simultanea di più programmi. I computer di terza generazione utilizzavano circuiti integrati.

Quarta generazione di computer. Questa è l'attuale generazione di computer sviluppata dopo il 1970. Le macchine di quarta generazione sono state progettate per utilizzare in modo efficace linguaggi moderni di alto livello e semplificare il processo di programmazione per l'utente finale.

In termini di hardware, sono caratterizzati dall'uso di grandi circuiti integrati come base elementare e dalla presenza di dispositivi di memorizzazione ad accesso casuale ad alta velocità con una capacità di diversi MB.

Le macchine di quarta generazione sono complessi multiprocessore e multimacchina che funzionano con alimentazione esterna. memoria e campo generale est. dispositivi. Le prestazioni raggiungono decine di milioni di operazioni al secondo, la memoria: diversi milioni di parole.

Il passaggio alla quinta generazione di computer è già iniziato. Consiste in una transizione qualitativa dall'elaborazione dei dati all'elaborazione della conoscenza e nell'aumento dei parametri di base di un computer. L’accento sarà posto sull’“intelligenza”.

Ad oggi, l'effettiva "intelligenza" dimostrata dalle reti neurali più complesse è inferiore al livello di un lombrico, tuttavia, non importa quanto siano limitate le capacità delle reti neurali oggi, molte scoperte rivoluzionarie potrebbero essere proprio dietro l'angolo.

1. Prima generazione di computer anni '50-'60

I circuiti logici sono stati creati utilizzando componenti radio discreti e tubi elettronici a vuoto con un filamento. I dispositivi di memoria ad accesso casuale utilizzavano tamburi magnetici, mercurio acustico ultrasonico e linee di ritardo elettromagnetiche e tubi a raggi catodici (CRT). Come dispositivi di memorizzazione esterni venivano utilizzati drive su nastri magnetici, schede perforate, nastri perforati e interruttori a innesto.

La programmazione di questa generazione di computer è stata effettuata nel sistema di numeri binari in linguaggio macchina, ovvero i programmi erano strettamente focalizzati su un modello specifico della macchina e “morivano” insieme a questi modelli.

A metà degli anni '50 apparvero linguaggi orientati alle macchine come i linguaggi di codifica simbolica (SCL), che consentirono di utilizzare la notazione verbale (lettera) abbreviata e i numeri decimali invece della notazione binaria di comandi e indirizzi. Nel 1956 fu creato il primo linguaggio di programmazione di alto livello per problemi matematici: il linguaggio Fortran e nel 1958 il linguaggio di programmazione universale Algol.

I computer, a partire dall'UNIVAC e terminando con BESM-2 e i primi modelli dei computer Minsk e Ural, appartengono alla prima generazione di computer.

2. Seconda generazione di computer: anni '60-'70

I circuiti logici sono stati costruiti su semiconduttori discreti ed elementi magnetici (diodi, transistor bipolari, microtrasformatori in ferrite toroidale). Come base progettuale e tecnologica sono stati utilizzati circuiti stampati (schede realizzate in lamina getinax). È diventato ampiamente utilizzato il principio a blocchi della progettazione della macchina, che consente di collegare un gran numero di diversi dispositivi esterni ai dispositivi principali, garantendo una maggiore flessibilità nell'uso dei computer. Le frequenze dell'orologio dei circuiti elettronici sono aumentate fino a centinaia di kilohertz.

Cominciarono ad essere utilizzate unità esterne su dischi magnetici rigidi1 e dischi floppy, un livello di memoria intermedio tra le unità a nastro magnetico e la RAM.

Nel 1964 apparve il primo monitor per computer: l'IBM 2250. Era un display monocromatico con uno schermo da 12 x 12 pollici e una risoluzione di 1024 x 1024 pixel. Aveva un frame rate di 40 Hz.

I sistemi di controllo creati sulla base dei computer richiedevano prestazioni più elevate dai computer e, soprattutto, affidabilità. I codici di rilevamento e correzione degli errori e i circuiti di controllo integrati sono diventati ampiamente utilizzati nei computer.

Le macchine di seconda generazione furono le prime a implementare modalità di elaborazione batch e teleelaborazione delle informazioni.

Il primo computer che utilizzava parzialmente dispositivi a semiconduttore al posto dei tubi a vuoto fu la macchina SEAC (Standards Eastern Automatic Computer), creata nel 1951.

All'inizio degli anni '60, nell'URSS iniziarono a essere prodotte macchine a semiconduttore.

3. Terza generazione di computer: anni '70-'80

Nel 1958, Robert Noyce inventò il piccolo circuito integrato al silicio, che poteva ospitare dozzine di transistor in una piccola area. Questi circuiti divennero successivamente noti come circuiti integrati su piccola scala (SSI). E già alla fine degli anni '60, i circuiti integrati iniziarono ad essere utilizzati nei computer.

I circuiti logici dei computer di terza generazione erano già interamente realizzati su piccoli circuiti integrati. Le frequenze dell'orologio dei circuiti elettronici sono aumentate fino a diversi megahertz. La tensione di alimentazione (unità di volt) e la potenza consumata dalla macchina sono diminuite. L'affidabilità e la velocità dei computer sono aumentate in modo significativo.

Le memorie ad accesso casuale utilizzavano nuclei di ferrite più piccoli, piastre di ferrite e pellicole magnetiche con un ciclo di isteresi rettangolare. Le unità disco sono diventate ampiamente utilizzate come dispositivi di archiviazione esterni.

Sono comparsi altri due livelli di dispositivi di archiviazione: dispositivi di memoria ad accesso ultra-casuale su registri di trigger, che hanno un'enorme velocità ma una capacità ridotta (decine di numeri) e memoria cache ad alta velocità.

Dall'uso diffuso dei circuiti integrati nei computer, il progresso tecnologico nell'informatica può essere osservato utilizzando la nota legge di Moore. Uno dei fondatori di Intel, Gordon Moore, scoprì nel 1965 una legge secondo la quale il numero di transistor in un chip raddoppia ogni 1,5 anni.

A causa della significativa complessità sia dell'hardware che della struttura logica dei computer di terza generazione, spesso iniziarono a essere chiamati sistemi.

Pertanto, i primi computer di questa generazione erano modelli di sistemi IBM (un certo numero di modelli IBM 360) e PDP (PDP 1). Nell’Unione Sovietica, in collaborazione con i paesi del Consiglio di Mutua Assistenza Economica (Polonia, Ungheria, Bulgaria, Germania dell’Est, ecc.), cominciarono a diffondersi i modelli del Sistema Unificato (UE) e del sistema dei piccoli computer (SM). essere prodotto.

Nei computer di terza generazione, viene prestata particolare attenzione alla riduzione della complessità della programmazione, all'efficienza dell'esecuzione del programma nelle macchine e al miglioramento della comunicazione tra l'operatore e la macchina. Ciò è garantito da potenti sistemi operativi, automazione avanzata della programmazione, efficienti sistemi di interruzione dei programmi, modalità operative time-sharing, modalità operative in tempo reale, modalità operative multiprogramma e nuove modalità di comunicazione interattiva. È apparso anche un efficace dispositivo videoterminale per la comunicazione tra l'operatore e la macchina: un monitor o display video.

Molta attenzione è prestata all'aumento dell'affidabilità e dell'affidabilità del funzionamento dei computer e alla facilitazione della loro manutenzione. Affidabilità e affidabilità sono assicurate dall'uso diffuso di codici con rilevamento e correzione automatica degli errori (codici di correzione di Hamming e codici ciclici).

L'organizzazione modulare dei computer e la costruzione modulare dei loro sistemi operativi hanno creato ampie opportunità per modificare la configurazione dei sistemi informatici. A questo proposito è emerso un nuovo concetto di “architettura” di un sistema informatico, che definisce l'organizzazione logica di questo sistema dal punto di vista dell'utente e del programmatore.

4. Quarta generazione di computer: anni '80-'90

Un evento rivoluzionario nello sviluppo della tecnologia informatica della terza generazione di macchine è stata la creazione di circuiti integrati grandi e molto grandi (Large Scale Integration - LSI e Very Large Scale Integration - VLSI), un microprocessore (1969) e un personal computer. Dal 1980, quasi tutti i computer iniziarono a essere creati sulla base di microprocessori. Il computer più popolare è diventato il personal computer.

I circuiti logici integrati nei computer iniziarono a essere creati sulla base di transistor CMOS unipolari ad effetto di campo con connessioni dirette, che funzionano con ampiezze minori di tensioni elettriche (unità di volt), consumando meno energia di quelle bipolari e consentendo così l'implementazione di più nanotecnologie avanzate (in quegli anni - su una scala di micron).

Il primo personal computer è stato creato nell'aprile 1976 da due amici, Steve Jobe (nato nel 1955), un dipendente Atari, e Stefan Wozniak (nato nel 1950), che lavorava presso Hewlett-Packard. Basandosi su un controller integrato a 8 bit di un circuito saldato di un popolare gioco elettronico, lavorando la sera in un garage per auto, hanno realizzato un semplice computer da gioco Apple programmato in BASIC, che è stato un successo strepitoso. All'inizio del 1977 fu registrata la Apple Co. e iniziò la produzione del primo personal computer al mondo, Apple.

5. Quinta generazione di computer: 1990-oggi

Le caratteristiche dell'architettura della moderna generazione di computer verranno discusse in dettaglio in questo corso.

In breve, il concetto di base di un computer di quinta generazione può essere formulato come segue:

1. Computer su microprocessori ultracomplessi con una struttura a vettore parallelo, che eseguono simultaneamente dozzine di istruzioni di programma sequenziali.

2. Computer con molte centinaia di processori funzionanti in parallelo, che consentono la costruzione di sistemi di elaborazione di dati e conoscenze, sistemi informatici di rete efficienti.

Sesta e successive generazioni di computer

Computer elettronici e optoelettronici con parallelismo massiccio, struttura neurale, con una rete distribuita di un gran numero (decine di migliaia) di microprocessori che modellano l'architettura dei sistemi biologici neurali.

Conclusione

Tutte le fasi dello sviluppo del computer sono convenzionalmente divise in generazioni.

La prima generazione è stata creata sulla base di lampade elettriche a vuoto, la macchina era controllata da un telecomando e da schede perforate utilizzando codici macchina. Questi computer erano alloggiati in diversi grandi armadi metallici che occupavano intere stanze.

La terza generazione apparve negli anni '60 del XX secolo. Gli elementi del computer sono stati realizzati sulla base di transistor a semiconduttore. Queste macchine elaboravano le informazioni sotto il controllo di programmi in linguaggio Assembly. Dati e programmi venivano immessi da schede e nastri perforati.

La terza generazione è stata eseguita su microcircuiti contenenti centinaia o migliaia di transistor su una piastra. Un esempio di macchina di terza generazione è il computer ES. Il funzionamento di queste macchine era controllato da terminali alfanumerici. Per il controllo sono stati utilizzati linguaggi di alto livello e Assembly. I dati e i programmi venivano immessi sia dal terminale che da schede e nastri perforati.

La quarta generazione è stata creata sulla base di grandi circuiti integrati (LSI). I rappresentanti più importanti della quarta generazione di computer sono i personal computer (PC). Un microcomputer universale per utente singolo è chiamato personale. La comunicazione con l'utente è stata effettuata tramite un display grafico a colori utilizzando linguaggi di alto livello.

La quinta generazione si basa su circuiti integrati su larga scala (VLSI), che si distinguono per la colossale densità di elementi logici sul chip.

Si presume che in futuro si diffonderanno l'immissione di informazioni in un computer dalla voce, la comunicazione con una macchina in linguaggio naturale, la visione artificiale, il tocco della macchina, la creazione di robot intelligenti e dispositivi robotici.

Opzioni di confronto Generazioni informatiche
Primo secondo terzo il quarto
Periodo di tempo 1946 - 1959 1960 - 1969 1970 - 1979 dal 1980
Base elemento (per unità di controllo, ALU) Lampade elettroniche (o elettriche). Semiconduttori (transistor) Circuiti integrati Circuiti integrati su larga scala (LSI)
Tipo principale di computer Grande Piccolo (mini) Micro
Dispositivi di input di base Ingresso per telecomando, scheda perforata, ingresso nastro perforato Aggiunto display alfanumerico e tastiera Display alfanumerico, tastiera Display grafico a colori, scanner, tastiera
Principali dispositivi di output Dispositivo di stampa alfanumerico (ADP), uscita su nastro perforato Plotter, stampante
Memoria esterna Nastri magnetici, tamburi, nastri perforati, schede perforate Aggiunto disco magnetico Nastri di carta perforati, dischi magnetici Dischi magnetici e ottici
Soluzioni software chiave Linguaggi di programmazione universali, traduttori Sistemi operativi batch che ottimizzano i traduttori Sistemi operativi interattivi, linguaggi di programmazione strutturati Software amichevole, sistemi operativi di rete
Modalità operativa del computer Programma unico Lotto Condivisione del tempo Lavoro personale ed elaborazione in rete
Scopo dell'utilizzo di un computer Calcoli scientifici e tecnici Calcoli tecnici ed economici Gestione e calcoli economici Telecomunicazioni, servizi di informazione

Tabella - Principali caratteristiche dei computer di varie generazioni


Generazione

1

2

3

4

Periodo, anni

1946 -1960

1955-1970

1965-1980

1980-presente vr.

Base dell'elemento

Tubi a vuoto

Diodi e transistor a semiconduttore

Circuiti integrati

Circuiti integrati su larga scala

Architettura

Architettura di Von Neumann

Modalità multiprogramma

Reti informatiche locali, sistemi informatici condivisi

Sistemi multiprocessore, personal computer, reti globali

Prestazione

10 – 20 mila operazioni/s

100-500 mila operazioni/s

Circa 1 milione di operazioni/s

Decine e centinaia di milioni di operazioni

Software

Linguaggi macchina

Sistemi operativi, linguaggi algoritmici

Sistemi operativi, sistemi di dialogo, sistemi di computer grafica

Pacchetti applicativi, database e conoscenza, browser

Dispositivi esterni

Dispositivi di input da nastri perforati e schede perforate,

ATsPU, telescriventi, NML, NMB

Terminali video, HDD

NGMD, modem, scanner, stampanti laser

Applicazione

Problemi di calcolo

Compiti ingegneristici, scientifici, economici

ACS, CAD, compiti scientifici e tecnici

Compiti gestionali, comunicazioni, creazione di postazioni di lavoro, elaborazione testi, multimedialità

Esempi

ENIAC, UNIVAC (Stati Uniti);
BESM - 1,2, M-1, M-20 (URSS)

IBM 701/709 (Stati Uniti)
BESM-4, M-220, Minsk, BESM-6 (URSS)

IBM 360/370, PDP -11/20, Cray -1 (Stati Uniti);
UE 1050, 1066,
Elbrus 1.2 (URSS)

Cray T3 E, SGI (Stati Uniti),
PC, server, workstation di vari produttori

Nel corso di 50 anni sono apparse diverse generazioni di computer, sostituendosi a vicenda. Il rapido sviluppo del VT in tutto il mondo è determinato solo da soluzioni architettoniche e di base di elementi avanzati.
Poiché un computer è un sistema costituito da hardware e software, è naturale intendere una generazione come modelli di computer caratterizzati dalle stesse soluzioni tecnologiche e software (elementi base, architettura logica, software). Nel frattempo, in molti casi risulta molto difficile classificare la VT per generazione, perché il confine tra loro diventa sempre più sfumato di generazione in generazione.
Prima generazione.
L'elemento base è costituito da tubi elettronici e relè; La RAM è stata eseguita su flip-flop, successivamente su nuclei di ferrite. L'affidabilità è bassa, era necessario un sistema di raffreddamento; I computer avevano dimensioni significative. Prestazioni - 5 - 30 mila operazioni aritmetiche; Programmazione: nei codici del computer (codice macchina), sono apparsi successivamente i codici automatici e gli assemblatori. La programmazione è stata effettuata da una ristretta cerchia di matematici, fisici e ingegneri elettronici. I computer di prima generazione venivano utilizzati principalmente per calcoli scientifici e tecnici.

Seconda generazione.
Base dell'elemento semiconduttore. L'affidabilità e le prestazioni sono notevolmente aumentate, le dimensioni e il consumo energetico sono ridotti. Sviluppo di strutture di input/output e memoria esterna. Una serie di soluzioni architettoniche progressive e ulteriore sviluppo della tecnologia di programmazione: modalità time sharing e modalità multiprogrammazione (che combina il lavoro del processore centrale per l'elaborazione dei dati e i canali di input/output, nonché la parallelizzazione delle operazioni per il recupero di comandi e dati dalla memoria)
Con la seconda generazione cominciò ad apparire chiaramente la differenziazione dei computer in piccoli, medi e grandi. L'ambito di applicazione dei computer per risolvere problemi - di pianificazione, economici, di gestione dei processi produttivi, ecc. - si è ampliato notevolmente.
Vengono creati sistemi di controllo automatizzati (ACS) per imprese, interi settori e processi tecnologici (ACS). La fine degli anni '50 è caratterizzata dall'emergere di una serie di linguaggi di programmazione di alto livello (HLP) orientati ai problemi: FORTRAN, ALGOL-60, ecc. Lo sviluppo del software è stato ottenuto con la creazione di librerie di programmi standard in vari linguaggi di programmazione e per vari scopi, monitor e dispatcher per controllare le modalità di funzionamento di un computer, pianificandone le risorse, che hanno gettato le basi per i concetti dei sistemi operativi di prossima generazione.

Terza generazione.
Elemento base su circuiti integrati (IC). Appaiono una serie di modelli di computer che sono compatibili con il software dal basso verso l'alto e hanno capacità crescenti da modello a modello. L'architettura logica dei computer e delle loro apparecchiature periferiche è diventata più complessa, il che ha notevolmente ampliato le funzionalità e le capacità di calcolo. I sistemi operativi (OS) diventano parte di un computer. Molti compiti di gestione della memoria, dei dispositivi di input/output e di altre risorse iniziarono ad essere assunti dal sistema operativo o direttamente dall'hardware del computer. Il software sta diventando potente: compaiono sistemi di gestione di database (DBMS), sistemi di automazione della progettazione (CAD) per vari scopi, vengono migliorati sistemi di controllo automatizzati e sistemi di controllo dei processi. Molta attenzione è posta alla creazione di pacchetti di programmi applicativi (APP) per vari scopi.
Si stanno sviluppando linguaggi e sistemi di programmazione Esempi: - serie di modelli IBM/360, USA, produzione in serie - dal 1964; -Computer UE, URSS e paesi COMECON dal 1972.
Quarta generazione.
L'elemento base sta diventando i circuiti integrati su larga scala (LSI) e ultra-larga scala (VLSI). I computer erano già progettati per l'uso efficiente del software (ad esempio, computer simili a UNIX, meglio immersi nell'ambiente software UNIX; macchine Prolog focalizzate su compiti di intelligenza artificiale); moderne centrali nucleari. L'elaborazione delle informazioni sulle telecomunicazioni si sta sviluppando rapidamente migliorando la qualità dei canali di comunicazione utilizzando le comunicazioni satellitari. Si stanno creando reti informatiche e informatiche nazionali e transnazionali, che consentono di parlare dell'inizio dell'informatizzazione della società umana nel suo insieme.
L'ulteriore intellettualizzazione della tecnologia informatica è determinata dalla creazione di interfacce uomo-computer più sviluppate, basi di conoscenza, sistemi esperti, sistemi di programmazione parallela, ecc.
L'elemento base ha permesso di ottenere grandi successi nella miniaturizzazione, aumentando l'affidabilità e le prestazioni dei computer. Sono comparsi micro e mini computer, che hanno superato le capacità dei computer di medie e grandi dimensioni della generazione precedente a un costo notevolmente inferiore. La tecnologia di produzione dei processori basati su VLSI ha accelerato il ritmo della produzione dei computer e ha reso possibile l'introduzione dei computer nelle grandi masse della società. Con l'avvento di un processore universale su un singolo chip (microprocessore Intel-4004, 1971), iniziò l'era del PC.
Il primo PC può essere considerato l'Altair-8800, creato sulla base dell'Intel-8080, nel 1974. E.Roberts. P. Allen e W. Gates hanno creato un traduttore dal popolare linguaggio Basic, aumentando significativamente l'intelligenza del primo PC (in seguito fondarono la famosa società Microsoft Inc). Il volto della 4a generazione è in gran parte determinato dalla creazione di supercomputer caratterizzati da elevate prestazioni (velocità media 50 - 130 megaflop. 1 megaflop = 1 milione di operazioni al secondo in virgola mobile) e da un'architettura non tradizionale (il principio della parallelizzazione basato su elaborazione in pipeline dei comandi). I supercomputer vengono utilizzati per risolvere problemi di fisica matematica, cosmologia e astronomia, per modellare sistemi complessi, ecc. Poiché i computer potenti svolgono e continueranno a svolgere un importante ruolo di commutazione nelle reti, le questioni relative alle reti vengono spesso discusse insieme alle domande sui supercomputer tra gli sviluppi domestici , supercomputer -I computer possono essere chiamati macchine della serie Elbrus, i sistemi informatici PS-2000 e PS-3000, contenenti fino a 64 processori controllati da un flusso di comandi comune, le prestazioni su una serie di compiti sono state raggiunte nell'ordine di 200 megaflop; Allo stesso tempo, data la complessità dello sviluppo e dell’attuazione dei moderni progetti di supercomputer, che richiedono un’intensa ricerca fondamentale nel campo dell’informatica, delle tecnologie elettroniche, elevati standard di produzione e ingenti costi finanziari, sembra molto improbabile che i progetti nazionali nel prossimo futuro verranno creati supercomputer, secondo le caratteristiche principali non inferiori ai migliori modelli stranieri.
Va notato che con il passaggio alla tecnologia IP per la produzione di computer, l’enfasi determinante delle generazioni si sposta sempre più dagli elementi base ad altri indicatori: architettura logica, software, interfaccia utente, aree di applicazione, ecc.
Quinta generazione.

Terza generazione di computer

Il rapido sviluppo dell'aviazione, della tecnologia spaziale e di altri campi della scienza e della tecnologia richiedevano dispositivi informatici miniaturizzati, affidabili e veloci. Pertanto, l'ulteriore sviluppo della tecnologia informatica elettronica ha richiesto lo sviluppo di nuove tecnologie, e tale tecnologia non tardò ad apparire. Nuovi progressi in termini di prestazioni, affidabilità e miniaturizzazione furono resi possibili dalla tecnologia dei circuiti integrati, che segnò il passaggio alla terza generazione di computer creati dal 1964 al 1974.

L'uso dei circuiti integrati ha fornito numerosi vantaggi:

1. L’affidabilità del computer è aumentata. L'affidabilità dei circuiti integrati è un ordine di grandezza superiore all'affidabilità di circuiti simili che utilizzano componenti discreti. L'aumento dell'affidabilità è dovuto principalmente alla riduzione delle connessioni tra i circuiti, che sono uno degli anelli più deboli nella progettazione di un computer. La maggiore affidabilità, a sua volta, ha portato a una significativa riduzione dei costi di funzionamento del computer.

2. Aumentando la densità di imballaggio dei circuiti elettronici, il tempo di trasmissione del segnale lungo i conduttori è diminuito e, di conseguenza, la velocità del computer è aumentata.

3. La produzione di circuiti integrati si presta bene all'automazione, che, nella produzione di massa, riduce drasticamente i costi di produzione e contribuisce alla divulgazione e all'ampliamento della portata delle applicazioni informatiche.

4. L'elevata densità di imballaggio dei circuiti elettronici ha ridotto le dimensioni, il peso e il consumo energetico dei computer di diversi ordini di grandezza, il che ha reso possibile il loro utilizzo in settori della scienza e della tecnologia precedentemente inaccessibili, come l'aviazione e la tecnologia spaziale.

Nonostante gli ovvi vantaggi derivanti dall'utilizzo della tecnologia dei circuiti integrati, in pratica il loro uso diffuso nei computer iniziò 12 anni dopo, dopo lo sviluppo del concetto di circuito integrato, pubblicato nel 1952 da Geoffrey Dummer del Ministero della Difesa britannico. Tuttavia, Dammer ha espresso solo l'idea di creare elementi elettronici sotto forma di un unico blocco utilizzando strati semiconduttori dello stesso materiale, e non ha indicato come posizionare nella pratica più elementi in un unico monolite. Nel 1956 Dammer cercò di trasformare le sue idee in realtà, ma i dispositivi da lui sviluppati si rivelarono inefficaci.

Jack Kilby della Texas Instruments e Robert Noyce della piccola azienda Fairchild Semiconductor sono riusciti a mettere in pratica le idee delineate.


Nel maggio 1958, Jack Kilby iniziò a lavorare presso Texas Instruments, dove iniziò a sviluppare transistor, condensatori e resistori (in precedenza aveva lavorato presso Centralab ed era coinvolto nella produzione di apparecchi acustici basati su transistor). Un giorno, il team per cui lavorava Jack Kilby fu incaricato di esplorare le opzioni per creare micromoduli alternativi. Furono proposte varie opzioni e Kilby, riflettendo sul problema, arrivò alla conclusione che sarebbe stato più redditizio per l'azienda produrre solo elementi semiconduttori e che resistori e condensatori potevano essere realizzati con lo stesso materiale degli elementi attivi e posizionati in un unico blocco monolitico dello stesso materiale. Mentre rifletteva su questa idea, Jack ha ideato una topologia del circuito multivibratore. Quindi 24 luglio 1958 È nata l'idea della realizzazione pratica di un circuito integrato.

Dopo aver esposto le sue idee ai suoi superiori, Jack è stato incaricato di creare un prototipo per dimostrare la validità dei suoi calcoli. Quindi è stato costruito un circuito di trigger da elementi discreti di germanio. Il 28 agosto 1958, Jack Kilby mostrò il layout a Willis Adcock.

Dopo l'approvazione dei suoi superiori, Kilby iniziò a creare un vero circuito integrato monolitico: un oscillatore a sfasamento.

Parallelamente a Jack Kilby, Robert Noyce stava sviluppando un circuito integrato. A Robert non piaceva davvero la tecnologia di produzione di elementi discreti. Ha detto che il processo ad alta intensità di manodopera per tagliare un wafer di silicio in singoli elementi e quindi collegarli in un unico circuito sembrava piuttosto inutile. Noyce ha proposto di isolare i singoli transistor in un cristallo gli uni dagli altri con giunzioni pn polarizzate inversamente e di coprire la superficie con un ossido isolante. Il contatto tra i singoli elementi è stato effettuato attraverso aree incise nell'ossido isolante secondo uno speciale disegno sulla superficie del microcircuito. Queste sezioni erano collegate tra loro da sottili linee di alluminio.

Kilby ha creato il suo chip e ha richiesto un brevetto poco prima di Noyce, tuttavia, la tecnologia di Noyce era più ponderata e conveniente e i documenti per la richiesta sono stati preparati con maggiore attenzione. Di conseguenza, Noyce ricevette un brevetto per l'invenzione prima - nell'aprile 1961, e Kilby - solo nel giugno 1964.

I numerosi processi che seguirono e la guerra per il diritto di essere considerato l'inventore della tecnologia si conclusero in pace. Alla fine, la Corte d'Appello ha confermato la rivendicazione di Noyce al primato tecnologico, ma ha stabilito che a Kilby è stato attribuito il merito di aver creato il primo microcircuito funzionante.

La produzione in serie di circuiti integrati iniziò nel 1961, contemporaneamente fu realizzato il primo computer sperimentale basato su circuiti integrati da parte della Texas Instruments, su commissione dell'aeronautica americana. Lo sviluppo durò 9 mesi e fu completato nel 1961. Il computer aveva solo 15 comandi, era unicast, la frequenza dell'orologio era di 100 KHz, la capacità di memorizzazione era di soli 30 numeri, per rappresentare i numeri venivano utilizzate 11 cifre binarie, il consumo energetico era di soli 16 W, il peso era di 585 g, lo spazio occupato il volume era di 100 centimetri cubi.

I primi circuiti integrati erano a bassa densità, ma col tempo la tecnologia per la loro produzione venne affinata e la densità aumentò. I computer di terza generazione utilizzavano circuiti integrati a bassa e media densità, che consentivano di combinare centinaia di elementi in un unico chip. Tali microcircuiti potrebbero essere utilizzati come circuiti operativi separati: registri, decodificatori, contatori, ecc.

L'avvento dei circuiti integrati ha permesso di migliorare lo schema a blocchi dei computer di seconda generazione. Pertanto, i dispositivi di controllo strettamente accoppiati (CU) e un'unità aritmetico-logica (ALU) furono combinati in un'unica unità, che divenne nota come processore. Inoltre, il processore poteva avere diversi dispositivi aritmetico-logici, ognuno dei quali svolgeva la propria funzione, ad esempio una ALU era focalizzata sul lavoro con numeri interi, un'altra su numeri in virgola mobile e una terza su indirizzi. Potrebbero esserci anche diversi dispositivi di controllo, uno centrale e diversi periferici, utilizzati per controllare i singoli blocchi di computer.

Spesso i computer erano costituiti da più processori, il che consentiva di sfruttare appieno le nuove prospettive nella risoluzione parallela dei problemi.

Nei computer di terza generazione la gerarchia della memoria è già chiaramente distinta. La RAM è divisa in blocchi indipendenti con i propri sistemi di controllo, che operano in parallelo. La struttura della RAM è divisa in pagine e segmenti. Anche la memoria interna del processore si sta sviluppando: vengono creati i prerequisiti per l'introduzione del caching della memoria.

I dispositivi di archiviazione esterni (ESD) sono collegati tramite uno speciale controller del canale di selezione (SCC). La loro capacità e velocità aumentano in modo significativo. Così, nel giugno 1973, il disco rigido IBM 3340 fu rilasciato come dispositivo di archiviazione esterno.

L'unità era sigillata: proteggeva le superfici di lavoro dei dischi da polvere e sporco, il che rendeva possibile posizionare le testine molto vicino alla superficie magnetica del disco. Per la prima volta è stato applicato il principio di una testa magnetica aerodinamica, che letteralmente si librava sopra la superficie rotante del disco rigido sotto l'influenza della forza aerodinamica.

Tutto ciò ha permesso di aumentare notevolmente la densità di registrazione (fino a 1,7 Mbit per pollice quadrato) e aumentare la capacità fino a 30 MB (su supporto non rimovibile). L'unità disponeva anche di un supporto rimovibile con una capacità di 30 MB.

Insieme al miglioramento dei dispositivi logici e della memoria, era in pieno svolgimento anche la modernizzazione dei dispositivi di input/output. La velocità dei nuovi computer richiedeva un sistema di input/output dati più veloce e affidabile rispetto ai lettori di schede perforate e alle telescriventi. Sono stati sostituiti da tastiere, pannelli di input grafico, display con penna ottica, pannelli al plasma, sistemi grafici raster e altri dispositivi.

Un'ampia varietà di dispositivi periferici, la loro velocità relativamente elevata e la necessità di separare le operazioni di I/O dal processo di calcolo hanno portato alla creazione di un controller di canale multiplex (MCC) specializzato, che ha consentito ai processori di lavorare in parallelo con i dati I/O. O.

Uno schema a blocchi generalizzato di un computer di terza generazione, che illustra quanto sopra, è mostrato nello schema seguente.

Nel diagramma:

UVV – dispositivo di ingresso-uscita;
RAM: uno o più dispositivi di memoria ad accesso casuale;
ALU - una o più unità aritmetico-logiche;
CU - uno o più dispositivi di controllo;
MK - controller di canale multiplex (canale per il collegamento di dispositivi lenti);
SK - controller del canale del selettore (canale per il collegamento di dispositivi ad alta velocità);
L'ESD è un dispositivo di archiviazione esterno.

L'uso di tecnologie integrate ha ridotto significativamente il costo dei computer, il che ha portato immediatamente ad un aumento della domanda. Molte organizzazioni hanno acquistato computer e li hanno gestiti con successo. Un fattore importante è il desiderio di standardizzazione e il rilascio di intere serie di computer compatibili con il software dal basso verso l'alto.

C'è un enorme bisogno di prodotti software applicativi e poiché il mercato del software non si è ancora sviluppato ed è quasi impossibile trovare software già pronto, affidabile ed economico, si verifica un gigantesco aumento della popolarità della programmazione e della domanda di prodotti software applicativi. sviluppatori di software competenti. Ogni impresa si sforza di organizzare il proprio staff di programmatori; nascono squadre specializzate che sviluppano software e si sforzano di occupare un pezzo di una nicchia non ancora sfruttata nell'arena della tecnologia informatica in rapida crescita.

Il mercato del software si sta sviluppando rapidamente, vengono creati pacchetti software per risolvere problemi standard, linguaggi di programmazione orientati ai problemi e interi sistemi software per la gestione del funzionamento dei computer, che in seguito verranno chiamati sistemi operativi.

I primi sistemi operativi iniziarono ad apparire ai tempi dei computer di seconda generazione. Così nel 1957 i Bell Labs svilupparono il sistema operativo BESYS (Bell Operating System). E nel 1962, General Electric sviluppò il sistema operativo GCOS (General Comprehensive Operating System), progettato per funzionare sui mainframe. Ma questi erano solo prerequisiti per la creazione di sistemi operativi veramente popolari e richiesti. Alla fine degli anni '60 erano già stati creati numerosi sistemi operativi che implementavano molte delle funzioni necessarie per la gestione di un computer. In totale sono stati utilizzati più di cento sistemi operativi diversi.

Tra i sistemi operativi più sviluppati c'erano:

OS/360, sviluppato da IBM nel 1964 per gestire i computer mainframe;

MULTIC- uno dei primi sistemi operativi con programmi di time-sharing;

UNIX, sviluppato nel 1969 e successivamente cresciuto in un'intera famiglia di sistemi operativi, molti dei quali sono tra i più popolari oggi.

L'uso dei sistemi operativi ha semplificato il lavoro con i computer e ha contribuito alla divulgazione della tecnologia informatica elettronica.

Sullo sfondo di un significativo aumento dell'interesse per l'informatica negli Stati Uniti, in Europa, in Giappone e in altri paesi, nell'URSS si è verificato un declino dei progressi in questo campo della scienza. Così, nel 1969, l'Unione Sovietica stipulò un accordo di cooperazione nello sviluppo di un sistema informatico unificato, il cui modello era uno dei migliori computer dell'epoca: l'IBM360. L'attenzione dell'URSS ai risultati ottenuti all'estero portò successivamente a un ritardo significativo nel campo della tecnologia informatica.

Tra i computer di terza generazione, gli sviluppi più significativi furono:

Sistema IBM-360- un'intera famiglia di computer, la cui produzione iniziò nel 1964. Tutti i modelli della famiglia avevano un unico sistema di comando e differivano tra loro per quantità di RAM e prestazioni, ed erano universali, capaci di risolvere sia problemi logici complessi sia di essere utili nei calcoli economici. La versatilità del computer si riflette nel suo nome. 360 significa 360 gradi, cioè la sua capacità di lavorare in qualsiasi direzione. Il costo per lo sviluppo del System-360 ammontava a circa 5 miliardi di dollari, ovvero il doppio di quanto gli Stati Uniti spesero durante la seconda guerra mondiale per il Progetto Manhattan, che mirava a creare una bomba atomica. Il progetto per creare l'IBM 360 fu secondo in termini di costi solo al programma Apollo. L'architettura IBM 360 si è rivelata di grande successo e ha determinato in gran parte la direzione dello sviluppo della tecnologia informatica;

PDP8- un minicomputer sviluppato il 22 marzo 1965 dalla Digital Equipment Corporation (DEC). Il termine "mini" è relativo. Questo computer aveva all'incirca le dimensioni di un frigorifero, ma, rispetto ad altri rappresentanti dei computer elettronici, le sue dimensioni erano davvero in miniatura. Questo progetto è stato commercialmente molto redditizio. In totale, furono vendute circa 50.000 copie di questa vettura. Il sistema PDP-8 aveva molte soluzioni simili: cloni in tutto il mondo. Quindi nell'URSS furono sviluppati diversi analoghi di questo computer: Elektronika-100, Saratov-2, ecc.;

Nairi 3- uno dei primi computer di terza generazione sviluppati in modo indipendente nell'URSS. Questo sviluppo è stato rilasciato nel 1970 presso l'Istituto di ricerca sulle macchine matematiche di Yerevan. Utilizzava un linguaggio macchina semplificato per facilitare la programmazione. È stato possibile inserire alcuni problemi anche in linguaggio matematico;

ES COMPUTER- un sistema unificato di computer elettronici, basato sull'architettura di successo e collaudata dell'IBM System-360. Le prime auto di questa serie furono create in URSS nel 1971. Le prestazioni dei primi campioni variavano da 2.750 operazioni al secondo (EC-1010) a 350.000 operazioni al secondo (EC-1040). Successivamente la produttività è stata aumentata fino a diverse decine di milioni di operazioni al secondo, ma praticamente tutti questi sviluppi si sono arrestati negli anni ’90 dopo il crollo dell’URSS;

ILLIACO 4– uno dei computer di terza generazione più produttivi. ILLIAC 4 è stato creato nel 1972 presso l'Università dell'Illinois e aveva un'architettura pipeline composta da 64 processori. Il computer era destinato a risolvere un sistema di equazioni alle derivate parziali e aveva una velocità di circa 200 milioni di operazioni al secondo.

Questo elenco può essere continuato, ma è chiaro che i computer sono già entrati saldamente e da molto tempo nelle nostre vite e il loro ulteriore sviluppo e miglioramento non può essere fermato. Con lo sviluppo della tecnologia di produzione dei circuiti integrati, la densità degli elementi è gradualmente aumentata. Cominciarono ad apparire circuiti integrati super-grandi e i computer di terza generazione, costruiti su circuiti integrati a bassa e media densità, iniziarono gradualmente ad essere sostituiti da computer di quarta generazione su circuiti integrati grandi e super-grandi.

Bibliografia

1. Storia dello sviluppo della tecnologia informatica. Lanina E.P. ISTU, Irkutsk – 2001

2. Sviluppo della tecnologia informatica. Apokin I.A. M., “La scienza”, 1974

3. Look da tecnico.

4. Metodologo.

6. Dall'abaco al computer. RS Guter. Casa editrice "Conoscenza", Mosca 1981.

Dopo la creazione del modello EDSAC in Inghilterra nel 1949, un forte impulso fu dato allo sviluppo di computer per uso generale, che stimolò l'emergere di modelli di computer che costituirono la prima generazione in numerosi paesi. Nel corso di oltre 40 anni di sviluppo della tecnologia informatica (CT), sono apparse diverse generazioni di computer, sostituendosi a vicenda.

I computer di prima generazione utilizzavano tubi a vuoto e relè come base elementare; La RAM è stata eseguita su flip-flop, successivamente su nuclei di ferrite; la prestazione era, di regola, compresa tra 5 e 30 mila operazioni aritmetiche; erano caratterizzati da bassa affidabilità, richiedevano sistemi di raffreddamento e avevano dimensioni rilevanti. Il processo di programmazione richiedeva notevoli competenze, buona conoscenza dell'architettura del computer e delle sue capacità software. All'inizio di questa fase è stata utilizzata la programmazione in codici informatici (codice macchina), poi sono comparsi gli autocodici e gli assemblatori. Di norma, i computer di prima generazione venivano utilizzati per calcoli scientifici e tecnici e il processo di programmazione stesso era più simile a un'arte praticata da una cerchia molto ristretta di matematici, ingegneri elettrici e fisici.

Computer EDSAC, 1949

Computer di seconda generazione

La creazione del primo transistor negli Stati Uniti il ​​​​1 luglio 1948 non prefigurava una nuova fase nello sviluppo della VT ed era associata principalmente all'ingegneria radiofonica. All'inizio sembrava più un prototipo di un nuovo dispositivo elettronico, che richiedeva ricerche e perfezionamenti seri. E già nel 1951, William Shockley dimostrò il primo transistor affidabile. Tuttavia, il loro costo era piuttosto elevato (fino a 8 dollari al pezzo) e solo dopo lo sviluppo della tecnologia del silicio il loro prezzo calò drasticamente, contribuendo ad accelerare il processo di miniaturizzazione dell'elettronica, che colpì anche il VT.

È generalmente accettato che la seconda generazione inizi con il computer RCA-501, apparso nel 1959 negli Stati Uniti e creato sulla base di elementi semiconduttori. Nel frattempo, nel 1955, fu creato un computer a transistor di bordo per il missile balistico intercontinentale ATLAS. La nuova tecnologia degli elementi ha permesso di aumentare notevolmente l'affidabilità del VT, ridurne le dimensioni e il consumo energetico e aumentare significativamente la produttività. Ciò ha permesso di creare computer con maggiori capacità logiche e produttività, che hanno contribuito all'espansione della portata delle applicazioni informatiche per risolvere problemi di pianificazione economica, gestione dei processi produttivi, ecc. Nell'ambito della seconda generazione, la differenziazione dei computer in piccolo, medio e grande sta diventando sempre più chiaro. La fine degli anni '50 è caratterizzata dall'inizio della fase di automazione della programmazione, che portò alla nascita dei linguaggi di programmazione Fortran (1957), Algol-60, ecc.

Computer di terza generazione

La terza generazione è associata all'avvento dei computer con una base elementare sui circuiti integrati (IC). Nel gennaio 1959, Jack Kilby creò il primo circuito integrato, che era una sottile piastra di germanio lunga 1 cm. Per dimostrare le capacità della tecnologia integrata, Texas Instruments creò per l'aeronautica americana un computer di bordo contenente 587 circuiti integrati e un volume (40). cm3) 150 volte più piccolo di un computer simile vecchio stile. Ma il circuito integrato Kilby presentava una serie di carenze significative, che furono eliminate con l'avvento dei circuiti integrati planari di Robert Noyce quello stesso anno. Da quel momento in poi, la tecnologia IC ha iniziato la sua marcia trionfale, conquistando sempre più nuovi settori dell'elettronica moderna e, prima di tutto, della tecnologia informatica.

Il software che garantisce il funzionamento del computer in varie modalità operative sta diventando notevolmente più potente. Stanno comparendo sistemi di gestione di database (DBMS) sviluppati e sistemi di automazione della progettazione (CAD); Molta attenzione è posta alla creazione di pacchetti di programmi applicativi (APP) per vari scopi. Nuovi linguaggi e sistemi di programmazione continuano ad apparire e quelli esistenti vengono sviluppati.

Computer di quarta generazione

Il design e la base tecnologica del VT di quarta generazione sono i circuiti integrati su larga scala (LSI) e ultra-larga (VLSI), creati rispettivamente negli anni '70 e '80. Tali circuiti integrati contengono già decine, centinaia di migliaia e milioni di transistor su un cristallo (chip). Allo stesso tempo, la tecnologia LSI è stata parzialmente utilizzata nei progetti della generazione precedente (IBM/360, ES Computer Series-2, ecc.). Il criterio concettuale più importante in base al quale i computer di quarta generazione possono essere separati dai computer di terza generazione è che i primi sono stati progettati con l'aspettativa di utilizzare in modo efficace i computer moderni e di semplificare il processo di programmazione per il programmatore problematico. In termini di hardware, sono caratterizzati da un ampio uso della tecnologia IC e di dispositivi di archiviazione ad alta velocità. La serie più famosa di computer di quarta generazione può essere considerata l'IBM/370, che, a differenza dell'altrettanto nota serie IBM/360 di terza generazione, ha un sistema di comando più sviluppato e un più ampio utilizzo della microprogrammazione. Nei modelli precedenti della serie 370 è stato implementato un dispositivo di memoria virtuale che consente all'utente di creare l'aspetto di risorse RAM illimitate.

Il fenomeno del personal computer (PC) risale alla creazione nel 1965 del primo minicomputer, il PDP-8, emerso come risultato dell'universalizzazione di un microprocessore specializzato per il controllo di un reattore nucleare. La macchina guadagnò rapidamente popolarità e divenne il primo computer di questa classe prodotto in serie; all'inizio degli anni '70 il numero di auto superava le 100mila unità. Un ulteriore passo importante è stato il passaggio dai mini ai microcomputer; questo nuovo livello strutturale di VT cominciò a prendere forma a cavallo degli anni '70, quando l'avvento di LSI permise di creare un processore universale su un unico chip. Il primo microprocessore Intel-4004 fu creato nel 1971 e conteneva 2250 elementi, e il primo microprocessore universale Intel-8080, che era lo standard per la tecnologia dei microcomputer e creato nel 1974, conteneva già 4500 elementi e servì come base per la creazione del primi PC. Nel 1979 fu rilasciato uno dei microprocessori a 16 bit più potenti e versatili Motorolla-68000 con 70.000 elementi e nel 1981 fu rilasciato il primo microprocessore a 32 bit di Hewlett Packard con 450 mila elementi.

PC Altair-8800

Il primo PC può essere considerato l'Altair-8800, creato sulla base del microprocessore Intel-8080 nel 1974 da Edward Roberts. Il computer venne spedito, costava solo 397 dollari ed era espandibile con periferiche (solo 256 byte di RAM!!!). Per l'Altair-8800, Paul Allen e Bill Gates crearono un traduttore del popolare linguaggio Basic, aumentando significativamente l'intelligenza del primo PC (in seguito fondarono l'ormai famosa Microsoft Inc). Dotare un PC di un monitor a colori portò alla creazione di un modello di PC concorrente, lo Z-2; un anno dopo la comparsa del primo PC Altair-8800, più di 20 diverse aziende e aziende si sono unite alla produzione di PC; L'industria dei PC cominciò a prendere forma (la produzione stessa dei PC, le loro vendite, periodici e pubblicazioni non periodiche, mostre, conferenze, ecc.). E già nel 1977 furono messi in produzione in serie tre modelli di PC Apple-2 (Apple Computers), TRS-80 (Tandy Radio Shark) e PET (Commodore), di cui Apple, inizialmente in ritardo rispetto alla concorrenza, divenne presto leader nella produzione di PC (il suo modello Apple-2 ebbe un enorme successo). Nel 1980, Apple Corporation entrò a Wall Street con il capitale azionario più grande e un reddito annuo di 117 milioni di dollari.

Ma già nel 1981, IBM, per evitare di perdere il mercato di massa, iniziò a produrre le sue ormai ampiamente conosciute serie di PC IBM PC/XT/AT e PS/2, che aprirono una nuova era nella tecnologia dei personal computer. L'ingresso del colosso IBM nell'arena dell'industria dei PC pone la produzione di PC su base industriale, il che rende possibile risolvere una serie di questioni importanti per l'utente (standardizzazione, unificazione, software sviluppato, ecc.), a cui il l'azienda ha prestato grande attenzione già nel quadro della produzione delle serie IBM/360 e IBM/370. Possiamo ragionevolmente ritenere che nel breve lasso di tempo trascorso dal debutto dell'Altair-8800 al PC IBM, abbiano aderito al VT più persone che in tutto il lungo periodo - dall'Analytical Engine di Babage all'invenzione delle prime IP.

Il primo computer che ha aperto la classe dei supercomputer può essere considerato il modello Amdahl 470V16, creato nel 1975 e compatibile con la serie IBM. La macchina utilizzava un efficace principio di parallelizzazione basato sull'elaborazione in pipeline dei comandi e l'elemento base utilizzava la tecnologia LSI. Attualmente la classe dei supercomputer comprende modelli con una velocità media di almeno 20 megaflop (1 megaflop = 1 milione di operazioni in virgola mobile al secondo). Il primo modello con tali prestazioni è stato il computer ILLIAC-IV, assolutamente unico, creato nel 1975 negli Stati Uniti e con una velocità massima di circa 50 megaflop. Questo modello ha avuto un enorme impatto sul successivo sviluppo dei supercomputer con architettura a matrice. Una pagina luminosa nella storia dei supercomputer è associata alla serie Cray di S. Cray, il cui primo modello, Cray-1, fu creato nel 1976 e aveva una velocità di picco di 130 megaflop. L'architettura del modello era basata sul principio della pipeline di elaborazione dati vettoriale e scalare con una base elementare su VLSI. È stato questo modello a gettare le basi per la classe dei moderni supercomputer. Va notato che nonostante una serie di soluzioni architettoniche interessanti, il successo del modello è stato ottenuto principalmente grazie a soluzioni tecnologiche di successo. I modelli successivi Cray-2, Cray X-MP, Cray-3, Cray-4 hanno portato le prestazioni della serie a circa 10mila megaflop, e il modello Cray MP, utilizzando una nuova architettura con 64 processori e una base elementare su nuovi chip di silicio, ha avuto prestazioni di picco di circa 50 gigaflop.

Concludendo l'escursione nella storia della moderna tecnologia militare con l'uno o l'altro dettaglio delle sue singole fasi, dovrebbero essere fatti alcuni commenti significativi. Innanzitutto, c'è una transizione sempre più fluida da una generazione di computer all'altra, quando le idee della nuova generazione maturano in un modo o nell'altro e vengono persino implementate nella generazione precedente. Ciò è particolarmente evidente durante il passaggio alla tecnologia IC per la produzione di VT, quando l'enfasi che definisce le generazioni si sposta sempre più dalla base degli elementi ad altri indicatori: architettura logica, software, interfaccia utente, aree di applicazione, ecc. Le più diverse VT appare, le cui caratteristiche non rientrano nei quadri di classificazione tradizionali; si ha l'impressione che siamo all'inizio di una sorta di universalizzazione della tecnologia informatica, quando tutte le sue classi si sforzano di livellare le proprie capacità informatiche. Molti elementi della quinta generazione sono, in un modo o nell'altro, caratteristici oggi.

Lo sviluppo dei computer è diviso in diversi periodi. Le generazioni di computer di ogni periodo differiscono l'una dall'altra nella base elementare e nel software.

Prima generazione di computer

La prima generazione (1945-1958) di computer era costruita su tubi elettronici: diodi e triodi. La maggior parte delle macchine di prima generazione erano dispositivi sperimentali e furono costruite per testare determinati principi teorici. L'utilizzo della tecnologia dei tubi a vuoto, l'utilizzo di sistemi di memoria su linee di ritardo al mercurio, tamburi magnetici, tubi catodici (tubi Williams), rendevano il loro funzionamento molto inaffidabile. Inoltre, tali computer erano pesanti e occupavano vaste aree, a volte interi edifici. Per l'immissione e l'emissione dei dati venivano utilizzati nastri e schede perforate, nastri magnetici e dispositivi di stampa.

È stato implementato il concetto di programma memorizzato. Il software dei computer di prima generazione consisteva principalmente in subroutine standard, la cui velocità variava da 10 a 20mila operazioni; /sec.

Macchine di questa generazione: ENIAC (USA), MESM (URSS), BESM-1, M-1, M-2, M-Z, "Strela", "Minsk-1", "Ural-1", "Ural-2" ", "Ural-3", M-20, "Setun", BESM-2, "Hrazdan", IBM - 701, utilizzavano molta elettricità e consistevano in un numero molto elevato di tubi a vuoto. Ad esempio, la macchina Strela era composta da 6.400 tubi a vuoto e 60mila pezzi di diodi semiconduttori. Le loro prestazioni non superavano le 2-3mila operazioni al secondo, la RAM non superava i 2 KB. Solo la macchina M-2 (1958) aveva 4 KB di RAM e una velocità di 20mila operazioni al secondo.

Seconda generazione di computer

I computer di seconda generazione furono sviluppati nel 1959-1967. L'elemento principale non erano più i tubi a vuoto, ma diodi e transistor semiconduttori, nonché nuclei magnetici e tamburi magnetici, i lontani antenati dei moderni dischi rigidi, iniziarono ad essere utilizzati come dispositivi di memoria. I computer sono diventati più affidabili, le loro prestazioni sono aumentate, il consumo energetico è diminuito e le dimensioni complessive delle macchine sono diminuite.

Con l'avvento della memoria sui nuclei magnetici, il suo ciclo operativo è sceso a decine di microsecondi. Il principio fondamentale della struttura è la centralizzazione. Apparvero dispositivi ad alte prestazioni per lavorare con nastri magnetici e dispositivi di memoria su dischi magnetici. Inoltre, è diventato possibile programmare in linguaggi algoritmici. Furono sviluppati i primi linguaggi di alto livello: Fortran, Algol, Cobol. Le prestazioni delle macchine di 2a generazione hanno già raggiunto 100-5000 mila operazioni. /sec.

Esempi di macchine di seconda generazione: BESM-6, BESM-4, Minsk-22 - sono progettate per risolvere problemi di pianificazione scientifica, tecnica ed economica; Minsk-32 (URSS), computer M-40, - 50 - per sistemi di difesa missilistica; Ural - 11, - 14, - 16 - computer per uso generale, focalizzati sulla risoluzione di problemi tecnici e ingegneristici.

Terza generazione di computer

I computer di terza generazione (1968-1973) utilizzavano circuiti integrati. Lo sviluppo negli anni '60 dei circuiti integrati - interi dispositivi e assiemi di decine e centinaia di transistor realizzati su un unico cristallo semiconduttore (quelli che oggi vengono chiamati microcircuiti) ha portato alla creazione di computer di terza generazione. Allo stesso tempo apparve la memoria a semiconduttore, che viene ancora utilizzata nei personal computer come memoria operativa. L'uso dei circuiti integrati ha notevolmente aumentato le capacità dei computer.

Ora il processore centrale ha la capacità di lavorare in parallelo e controllare numerosi dispositivi periferici. I computer potevano elaborare simultaneamente più programmi (principio della multiprogrammazione). Come risultato dell'implementazione del principio multiprogrammazione, è diventato possibile lavorare in modalità time-sharing in modalità interattiva. Agli utenti remoti dal computer è stata data la possibilità, indipendentemente l'uno dall'altro, di interagire rapidamente con la macchina.

I computer sono stati progettati sulla base di circuiti integrati a basso grado di integrazione (MIS - 10-100 componenti per chip) e medio grado di integrazione (SIS - 10-1000 componenti per chip). Nacque l'idea, poi realizzata, di progettare una famiglia di computer con la stessa architettura, basata principalmente sul software. Alla fine degli anni '60 apparvero i minicomputer. Nel 1971 apparve il primo microprocessore. La velocità dei computer di terza generazione ha raggiunto circa 1 milione di operazioni. /sec.

Durante questi anni, la produzione di computer ha acquisito una scala industriale. A partire dai computer di terza generazione, lo sviluppo dei computer seriali è diventato tradizionale. Sebbene le macchine della stessa serie fossero molto diverse tra loro in termini di capacità e prestazioni, erano compatibili a livello informativo, software e hardware. La più comune in quegli anni era la famiglia System/360 di IBM. I paesi del COMECON hanno prodotto computer di un'unica serie "ES Computer": ES-1022, ES-1030, ES-1033, ES-1046, ES-1061, ES-1066, ecc. I computer di questa generazione includono anche "IVM-370 ", "Elettronica-100/25", "Elettronica-79", "SM-3", "SM-4", ecc.

Per le serie di computer il software è stato notevolmente ampliato (sistemi operativi, linguaggi di programmazione di alto livello, programmi applicativi, ecc.). Nel 1969 apparvero contemporaneamente il sistema operativo Unix e il linguaggio di programmazione C, che ebbe un enorme impatto sul mondo del software e conserva ancora la sua posizione di leader.

Quarta generazione di computer

Nei computer di quarta generazione (1974-1982), l'uso di circuiti integrati su larga scala (LSI - 1.000-100.000 componenti per chip) e di circuiti integrati su larga scala (VLSI - 1.000.000-1.000.000 componenti per chip) ne ha aumentato le prestazioni a decine e centinaia di milioni op. /sec.

L'inizio di questa generazione è considerato il 1975 - Amdahl Corp. ha rilasciato sei computer AMDAHL 470 V/6, che utilizzavano LSI come base elementare. Cominciarono ad essere utilizzati sistemi di memoria ad alta velocità su circuiti integrati: RAM MOS con una capacità di diversi megabyte. Se la macchina viene spenta, i dati contenuti nella RAM MOS vengono salvati trasferendoli automaticamente su disco. All'accensione della macchina, il sistema inizia a utilizzare un programma di avvio memorizzato nella ROM (memoria di sola lettura), che scarica il sistema operativo e il software residente nella RAM MOS.

Lo sviluppo dei computer di quarta generazione è andato in 2 direzioni: 1a direzione - la creazione di supercomputer - complessi di macchine multiprocessore. La velocità di tali macchine raggiunge diversi miliardi di operazioni al secondo. Sono in grado di elaborare enormi quantità di informazioni. Questi includono i complessi ILLIAS-4, CRAY, CYBER, Elbrus-1, Elbrus-2, ecc. I complessi informatici multiprocessore (MCC) Elbrus-2 furono utilizzati attivamente nell'Unione Sovietica in aree che richiedevano un grande volume di calcoli, prima di tutto in l'industria della difesa.

2a direzione - ulteriore sviluppo sulla base di microcomputer e personal computer (PC) LSI e VLSI. I primi rappresentanti di queste macchine sono i computer Apple, IBM - PC (XT, AT, PS / 2), "Iskra", "Electronics", "Mazovia", "Agat", "ES-1840", "ES-" 1841" ecc. A partire da questa generazione i computer iniziarono a essere chiamati computer. Il software è completato da banche dati e banche.

Quinta generazione di computer

Il computer di quinta generazione è il computer del futuro. Il programma di sviluppo per la cosiddetta quinta generazione di computer è stato adottato in Giappone nel 1982. Si presumeva che entro il 1991 sarebbero stati creati computer fondamentalmente nuovi, focalizzati sulla risoluzione dei problemi dell'intelligenza artificiale. Con l'aiuto del linguaggio Prolog e delle innovazioni nella progettazione informatica, si prevedeva di avvicinarsi alla risoluzione di uno dei problemi principali di questo ramo dell'informatica: il problema della memorizzazione e dell'elaborazione della conoscenza. Insomma, per i computer di quinta generazione non ci sarebbe bisogno di scrivere programmi, ma basterebbe spiegare in linguaggio “quasi naturale” cosa viene loro richiesto.

Si presume che la loro base elementare non sarà VLSI, ma dispositivi creati sulla base con elementi di intelligenza artificiale. Per aumentare la memoria e la velocità verranno utilizzati i progressi nel campo dell'optoelettronica e dei bioprocessori.

Per i computer di quinta generazione vengono posti compiti completamente diversi rispetto allo sviluppo di tutti i computer precedenti. Se gli sviluppatori di computer dalla 1a alla 4a generazione si trovassero ad affrontare compiti come aumentare la produttività nel campo dei calcoli numerici, ottenere una grande capacità di memoria, allora il compito principale degli sviluppatori di computer di 5a generazione è la creazione dell'intelligenza artificiale di la macchina (la capacità di trarre conclusioni logiche dai fatti presentati), lo sviluppo della "intellettualizzazione" dei computer - eliminando la barriera tra uomo e computer.

Sfortunatamente, il progetto informatico giapponese di quinta generazione ha ripetuto il tragico destino delle prime ricerche nel campo dell’intelligenza artificiale. Più di 50 miliardi di yen di investimenti furono sprecati, il progetto fu interrotto e i dispositivi sviluppati si rivelarono non più performanti dei sistemi prodotti in serie dell'epoca. Tuttavia, la ricerca condotta durante il progetto e l’esperienza maturata nella rappresentazione della conoscenza e nei metodi di inferenza parallela hanno notevolmente aiutato i progressi nel campo dei sistemi di intelligenza artificiale in generale.

Già adesso i computer sono in grado di percepire informazioni da testi scritti a mano o stampati, da moduli, dalla voce umana, riconoscere l'utente con la voce e tradurre da una lingua all'altra. Ciò consente a tutti gli utenti di comunicare con i computer, anche a coloro che non hanno conoscenze particolari in questo settore.

Molti dei progressi compiuti dall’intelligenza artificiale vengono utilizzati nell’industria e nel mondo degli affari. I sistemi esperti e le reti neurali vengono utilizzati efficacemente per compiti di classificazione (filtro SPAM, categorizzazione del testo, ecc.). Gli algoritmi genetici servono coscienziosamente l’uomo (utilizzati, ad esempio, per ottimizzare i portafogli nelle attività di investimento), la robotica (l’industria, anche i sistemi multi-agente. Altri settori dell’intelligenza artificiale, ad esempio, la rappresentazione distribuita della conoscenza e la risoluzione di problemi su Internet, sono non addormentato: grazie a loro, nei prossimi anni ci si può aspettare una rivoluzione in una serie di settori dell'attività umana.

Allo stato attuale, la cronologia remota del dispositivo informatico

La necessità di processori più veloci, più economici e più versatili costringe i produttori ad aumentare costantemente il numero di transistor al loro interno. Tuttavia, questo processo non è infinito. La crescita esponenziale di questo numero prevista da Gordon Moore nel 1973 sta diventando sempre più difficile da mantenere. Gli esperti dicono che questa legge cesserà di applicarsi non appena le porte dei transistor, che regolano il flusso di informazioni nel chip, diventeranno commisurate alla lunghezza d'onda dell'elettrone (nel silicio, su cui è attualmente costruita la produzione, è di circa 10 nanometri). E questo accadrà tra il 2010 e il 2020. Man mano che le architetture dei computer diventano più sofisticate man mano che si avvicinano al limite fisico, aumentano i costi di progettazione, produzione e test dei chip. Pertanto, lo stadio dello sviluppo evolutivo sarà prima o poi sostituito da cambiamenti rivoluzionari.

La corsa all’aumento della produttività pone molti problemi. Il più grave di questi è il surriscaldamento negli imballaggi ultra-densi, causato da un'area di trasferimento del calore notevolmente più piccola. La concentrazione di energia nei moderni microprocessori è estremamente elevata. Le attuali strategie per dissipare il calore generato, come ridurre la tensione di alimentazione o attivare selettivamente solo le parti necessarie nei microcircuiti, sono inefficaci a meno che non venga utilizzato il raffreddamento attivo.

Con la diminuzione delle dimensioni dei transistor, gli strati isolanti sono diventati più sottili, il che significa che anche la loro affidabilità è diminuita, poiché gli elettroni possono penetrare attraverso isolanti sottili (effetto tunnel). Questo problema può essere risolto riducendo la tensione di controllo, ma solo entro certi limiti.

Oggi, la condizione principale per aumentare le prestazioni del processore sono i metodi di parallelismo. Come sapete, un microprocessore elabora una sequenza di istruzioni (comandi) che compongono un particolare programma. Se organizzi l'esecuzione parallela (cioè simultanea) delle istruzioni, le prestazioni complessive aumenteranno in modo significativo. Il problema del parallelismo è risolto mediante metodi di calcolo del pipeline, utilizzando l'architettura superscalare e la previsione dei rami. Architettura multicore. Questa architettura prevede l'integrazione di diversi core di microprocessori semplici su un singolo chip. Ogni core esegue il proprio flusso di istruzioni. Ciascun core del microprocessore è significativamente più semplice di un core del processore multi-thread, semplificando la progettazione e il test dei chip. Ma nel frattempo, il problema dell’accesso alla memoria sta peggiorando e i compilatori devono essere sostituiti.

Processore multi-thread. Questi processori sono simili nell'architettura ai traccianti: l'intero chip è diviso in elementi di elaborazione che ricordano un microprocessore superscalare. A differenza di un processore di traccia, qui ogni elemento elabora istruzioni da thread diversi all'interno di un ciclo di clock, ottenendo così il parallelismo a livello di thread. Naturalmente ogni thread ha il proprio contatore di programma e un proprio set di registri.

Architettura "a piastrella". I sostenitori ritengono che il software dovrebbe essere compilato direttamente nell'hardware, poiché ciò fornirà il massimo parallelismo. Questo approccio richiede compilatori piuttosto complessi, che non sono ancora stati creati. Il processore in questo caso è costituito da tante “tessere”, ognuna delle quali ha la propria RAM ed è collegata ad altre “tessere” in una sorta di reticolo, i cui nodi possono essere accesi e spenti. L'ordine in cui vengono eseguite le istruzioni è impostato dal software.

Architettura a più piani. Qui non stiamo parlando di struttura logica, ma di struttura fisica. L'idea è che i chip contengano "pile" verticali di microcircuiti realizzati utilizzando la tecnologia dei transistor a film sottile presa in prestito dalla produzione di display TFT. In questo caso, le interconnessioni orizzontali relativamente lunghe vengono convertite in brevi verticali, riducendo la latenza del segnale e aumentando le prestazioni del processore. L'idea dei chip "tridimensionali" è già stata implementata sotto forma di campioni funzionanti di chip di memoria a otto piani. È del tutto possibile che ciò sia accettabile anche per i microprocessori e nel prossimo futuro tutti i microchip verranno espansi non solo orizzontalmente, ma anche verticalmente.