Les éléments semi-conducteurs ont été utilisés dans quelle génération de machines. Qu'est-ce qu'un ordinateur? Générations d'ordinateurs. Un degré élevé d'intégration contribue à augmenter la densité de conditionnement des équipements électroniques, augmentant ainsi leur fiabilité, ce qui entraîne une augmentation de la vitesse

Introduction

1. Première génération d'ordinateurs 1950-1960

2. Deuxième génération d'ordinateurs : années 1960-1970

3. Troisième génération d'ordinateurs : années 1970-1980

4. Quatrième génération d'ordinateurs : années 1980-1990

5. Cinquième génération d'ordinateurs : 1990 à aujourd'hui

Conclusion

Introduction

Depuis 1950, tous les 7 à 10 ans, les principes de conception, de technologie et d'algorithme logiciel de construction et d'utilisation des ordinateurs ont été radicalement mis à jour. À cet égard, il est légitime de parler de générations d’ordinateurs. Classiquement, chaque génération peut se voir attribuer 10 ans.

Les ordinateurs ont parcouru un long chemin d'évolution en termes de base d'éléments (des lampes aux microprocesseurs) ainsi que dans le sens de l'émergence de nouvelles capacités, élargissant la portée et la nature de leur utilisation.

La division des ordinateurs en générations est une classification très conditionnelle et vague des systèmes informatiques en fonction du degré de développement du matériel et des logiciels, ainsi que des méthodes de communication avec l'ordinateur.

La première génération d'ordinateurs comprend des machines créées au tournant des années 50 : des tubes à vide étaient utilisés dans les circuits. Il y avait peu de commandes, les commandes étaient simples et la capacité de la RAM et les indicateurs de performances étaient faibles. Les performances sont d'environ 10 à 20 000 opérations par seconde. Des appareils d'impression, des bandes magnétiques, des cartes perforées et des bandes de papier perforées ont été utilisés pour l'entrée et la sortie.

La deuxième génération d'ordinateurs comprend les machines conçues entre 1955 et 1965. Ils utilisaient à la fois des tubes à vide et des transistors. La RAM était construite sur des noyaux magnétiques. A cette époque apparaissent les tambours magnétiques et les premiers disques magnétiques. Des langages dits de haut niveau sont apparus, dont les moyens permettent de décrire l'ensemble de la séquence de calculs sous une forme visuelle et facilement compréhensible. Un large éventail de programmes de bibliothèque est apparu pour résoudre divers problèmes mathématiques. Les machines de la deuxième génération étaient caractérisées par une incompatibilité logicielle, ce qui rendait difficile l'organisation de grands systèmes d'information. Au milieu des années 60, il y a donc eu une transition vers la création d'ordinateurs compatibles avec les logiciels et construits sur une base technologique microélectronique.

Troisième génération d'ordinateurs. Ce sont des machines créées après les années 60 qui ont une seule architecture, c'est à dire. compatible avec les logiciels. Des capacités de multiprogrammation sont apparues, c'est-à-dire exécution simultanée de plusieurs programmes. Les ordinateurs de troisième génération utilisaient des circuits intégrés.

Quatrième génération d'ordinateurs. Il s'agit de la génération actuelle d'ordinateurs développés après 1970. Les machines de 4e génération ont été conçues pour utiliser efficacement les langages modernes de haut niveau et simplifier le processus de programmation pour l'utilisateur final.

En termes de matériel, ils se caractérisent par l'utilisation de grands circuits intégrés comme base élémentaire et par la présence de dispositifs de stockage à accès aléatoire à haut débit d'une capacité de plusieurs Mo.

Les machines de 4ème génération sont des complexes multiprocesseurs et multi-machines fonctionnant sur alimentation externe. mémoire et champ général ext. dispositifs. Les performances atteignent des dizaines de millions d'opérations par seconde, la mémoire - plusieurs millions de mots.

La transition vers la cinquième génération d'ordinateurs a déjà commencé. Elle consiste en un passage qualitatif du traitement des données au traitement des connaissances et en une augmentation des paramètres de base d'un ordinateur. L’accent sera mis principalement sur « l’intelligence ».

À ce jour, l'« intelligence » réelle démontrée par les réseaux neuronaux les plus complexes est inférieure au niveau d'un ver de terre. Cependant, aussi limitées que soient les capacités des réseaux neuronaux aujourd'hui, de nombreuses découvertes révolutionnaires pourraient être à portée de main.

1. Première génération d'ordinateurs 1950-1960

Des circuits logiques ont été créés à l'aide de composants radio discrets et de tubes à vide électroniques avec un filament. Les dispositifs de mémoire vive utilisaient des tambours magnétiques, des lignes à retard acoustiques à ultrasons au mercure et électromagnétiques, ainsi que des tubes cathodiques (CRT). Des lecteurs sur bandes magnétiques, des cartes perforées, des bandes perforées et des commutateurs enfichables ont été utilisés comme périphériques de stockage externes.

La programmation de cette génération d'ordinateurs a été réalisée dans le système de nombres binaires en langage machine, c'est-à-dire que les programmes étaient strictement axés sur un modèle spécifique de la machine et « sont morts » avec ces modèles.

Au milieu des années 1950, des langages orientés machine sont apparus, tels que les langages de codage symbolique (SCL), qui ont permis d'utiliser leur notation verbale (lettre) abrégée et leurs nombres décimaux au lieu de la notation binaire des commandes et des adresses. En 1956, le premier langage de programmation de haut niveau pour les problèmes mathématiques a été créé - le langage Fortran, et en 1958 - le langage de programmation universel Algol.

Les ordinateurs, depuis UNIVAC jusqu'à BESM-2 et les premiers modèles d'ordinateurs de Minsk et de l'Oural, appartiennent à la première génération d'ordinateurs.

2. Deuxième génération d'ordinateurs : années 1960-1970

Les circuits logiques étaient construits sur des éléments semi-conducteurs et magnétiques discrets (diodes, transistors bipolaires, microtransformateurs toroïdaux en ferrite). Des circuits imprimés (cartes en feuille getinax) ont été utilisés comme base de conception et technologique. Le principe de bloc de conception de machines est devenu largement utilisé, ce qui permet de connecter un grand nombre de périphériques externes différents aux périphériques principaux, ce qui offre une plus grande flexibilité dans l'utilisation des ordinateurs. Les fréquences d'horloge des circuits électroniques ont augmenté jusqu'à plusieurs centaines de kilohertz.

Des disques externes sur disques magnétiques durs1 et des disquettes ont commencé à être utilisés - un niveau de mémoire intermédiaire entre les lecteurs de bande magnétique et la RAM.

En 1964, le premier écran d'ordinateur est apparu : l'IBM 2250. Il s'agissait d'un écran monochrome avec un écran de 12 x 12 pouces et une résolution de 1 024 x 1 024 pixels. Il avait une fréquence d'images de 40 Hz.

Les systèmes de contrôle créés sur la base d'ordinateurs exigeaient des ordinateurs des performances plus élevées et, surtout, une fiabilité. Les codes de détection et de correction d'erreurs et les circuits de contrôle intégrés sont devenus largement utilisés dans les ordinateurs.

Les machines de deuxième génération ont été les premières à mettre en œuvre des modes de traitement par lots et de télétraitement de l'information.

Le premier ordinateur à utiliser partiellement des dispositifs semi-conducteurs au lieu de tubes à vide fut la machine SEAC (Standards Eastern Automatic Computer), créée en 1951.

Au début des années 60, des machines à semi-conducteurs ont commencé à être produites en URSS.

3. Troisième génération d'ordinateurs : années 1970-1980

En 1958, Robert Noyce invente le petit circuit intégré au silicium, capable d'héberger des dizaines de transistors sur une petite surface. Ces circuits sont devenus plus tard connus sous le nom de circuits intégrés à petite échelle (SSI). Et déjà à la fin des années 60, les circuits intégrés ont commencé à être utilisés dans les ordinateurs.

Les circuits logiques des ordinateurs de 3ème génération étaient déjà entièrement construits sur de petits circuits intégrés. Les fréquences d'horloge des circuits électroniques ont augmenté jusqu'à plusieurs mégahertz. La tension d'alimentation (unités de volts) et la puissance consommée par la machine ont diminué. La fiabilité et la vitesse des ordinateurs ont considérablement augmenté.

Les mémoires à accès aléatoire utilisaient des noyaux de ferrite plus petits, des plaques de ferrite et des films magnétiques avec une boucle d'hystérésis rectangulaire. Les lecteurs de disque sont devenus largement utilisés comme périphériques de stockage externes.

Deux autres niveaux de dispositifs de stockage sont apparus : les dispositifs de mémoire vive sur registres de déclenchement, qui ont une vitesse énorme mais une petite capacité (des dizaines de nombres), et une mémoire cache à grande vitesse.

Depuis l'utilisation généralisée des circuits intégrés dans les ordinateurs, les progrès technologiques en informatique peuvent être observés à l'aide de la célèbre loi de Moore. L'un des fondateurs d'Intel, Gordon Moore, a découvert en 1965 une loi selon laquelle le nombre de transistors dans une puce double tous les 1,5 ans.

En raison de la complexité importante du matériel et de la structure logique des ordinateurs de 3e génération, ils ont souvent commencé à être appelés systèmes.

Ainsi, les premiers ordinateurs de cette génération étaient des modèles de systèmes IBM (un certain nombre de modèles IBM 360) et PDP (PDP 1). En Union soviétique, en collaboration avec les pays du Conseil d'assistance économique mutuelle (Pologne, Hongrie, Bulgarie, Allemagne de l'Est, etc.), des modèles de système unifié (UE) et de système de petits ordinateurs (SM) ont commencé à être développés. être produit.

Dans les ordinateurs de troisième génération, une attention particulière est accordée à la réduction de la complexité de la programmation, à l'efficacité de l'exécution des programmes dans les machines et à l'amélioration de la communication entre l'opérateur et la machine. Ceci est assuré par des systèmes d'exploitation puissants, une automatisation de programmation avancée, des systèmes efficaces d'interruption de programme, des modes de fonctionnement en temps partagé, des modes de fonctionnement en temps réel, des modes de fonctionnement multi-programmes et de nouveaux modes de communication interactifs. Un terminal vidéo efficace pour la communication entre l'opérateur et la machine est également apparu : un moniteur vidéo, ou écran.

Une grande attention est accordée à l'augmentation de la fiabilité et de la fiabilité du fonctionnement des ordinateurs et à la facilitation de leur maintenance. La fiabilité et la fiabilité sont assurées par l'utilisation généralisée de codes avec détection et correction automatique des erreurs (codes de correction Hamming et codes cycliques).

L'organisation modulaire des ordinateurs et la construction modulaire de leurs systèmes d'exploitation ont créé de nombreuses opportunités pour modifier la configuration des systèmes informatiques. À cet égard, un nouveau concept d'« architecture » d'un système informatique est apparu, qui définit l'organisation logique de ce système du point de vue de l'utilisateur et du programmeur.

4. Quatrième génération d'ordinateurs : années 1980-1990

Un événement révolutionnaire dans le développement de la technologie informatique de la troisième génération de machines a été la création de grands et très grands circuits intégrés (Large Scale Integration - LSI et Very Large Scale Integration - VLSI), d'un microprocesseur (1969) et d'un ordinateur personnel. Depuis 1980, presque tous les ordinateurs ont commencé à être créés sur la base de microprocesseurs. L’ordinateur le plus populaire est devenu l’ordinateur personnel.

Les circuits intégrés logiques dans les ordinateurs ont commencé à être créés sur la base de transistors CMOS à effet de champ unipolaires avec connexions directes, fonctionnant avec de plus petites amplitudes de tensions électriques (unités de volts), consommant moins d'énergie que les transistors bipolaires et permettant ainsi la mise en œuvre de plus nanotechnologies avancées (à l'époque - à l'échelle du micron).

Le premier ordinateur personnel a été créé en avril 1976 par deux amis, Steve Jobe (né en 1955), employé d'Atari, et Stefan Wozniak (né en 1950), qui travaillait chez Hewlett-Packard. Basé sur un contrôleur 8 bits intégré d'un circuit soudé d'un jeu électronique populaire, travaillant le soir dans un garage automobile, ils ont créé un simple ordinateur de jeu Apple programmé en BASIC, qui a connu un franc succès. Au début de 1977, Apple Co. a été enregistrée et la production du premier ordinateur personnel au monde, Apple, a commencé.

5. Cinquième génération d'ordinateurs : 1990 à aujourd'hui

Les caractéristiques de l'architecture de la génération moderne d'ordinateurs sont abordées en détail dans ce cours.

En bref, le concept de base d'un ordinateur de cinquième génération peut être formulé comme suit :

1. Ordinateurs équipés de microprocesseurs ultra-complexes avec une structure à vecteurs parallèles, exécutant simultanément des dizaines d'instructions de programme séquentielles.

2. Des ordinateurs dotés de plusieurs centaines de processeurs fonctionnant en parallèle, permettant la construction de systèmes de traitement de données et de connaissances, de systèmes informatiques en réseau efficaces.

Sixième génération d'ordinateurs et suivantes

Calculateurs électroniques et optoélectroniques à parallélisme massif, à structure neuronale, avec un réseau distribué d'un grand nombre (des dizaines de milliers) de microprocesseurs modélisant l'architecture des systèmes biologiques neuronaux.

Conclusion

Toutes les étapes du développement informatique sont classiquement divisées en générations.

La première génération a été créée sur la base de lampes électriques à vide, la machine était contrôlée à partir d'une télécommande et de cartes perforées à l'aide de codes machine. Ces ordinateurs étaient logés dans plusieurs grandes armoires métalliques occupant des pièces entières.

La troisième génération est apparue dans les années 60 du 20e siècle. Les éléments informatiques ont été fabriqués à base de transistors semi-conducteurs. Ces machines traitaient les informations sous le contrôle de programmes en langage Assembly. Les données et les programmes ont été saisis à partir de cartes perforées et de bandes perforées.

La troisième génération a été réalisée sur des microcircuits contenant des centaines ou des milliers de transistors sur une seule plaque. Un exemple de machine de troisième génération est l’ordinateur ES. Le fonctionnement de ces machines était contrôlé à partir de terminaux alphanumériques. Des langages de haut niveau et Assembly ont été utilisés pour le contrôle. Les données et les programmes ont été saisis à la fois à partir du terminal et à partir de cartes perforées et de bandes perforées.

La quatrième génération a été créée sur la base de circuits intégrés à grande échelle (LSI). Les représentants les plus marquants de la quatrième génération d’ordinateurs sont les ordinateurs personnels (PC). Un micro-ordinateur universel mono-utilisateur est dit personnel. La communication avec l'utilisateur s'effectuait via un affichage graphique couleur utilisant des langages de haut niveau.

La cinquième génération repose sur des circuits intégrés à très grande échelle (VLSI), qui se distinguent par la densité colossale d'éléments logiques sur la puce.

On suppose qu'à l'avenir, la saisie d'informations dans un ordinateur à partir de la voix, la communication avec une machine en langage naturel, la vision par ordinateur, le toucher machine, la création de robots intelligents et d'appareils robotiques se généraliseront.

Options de comparaison Générations informatiques
d'abord deuxième troisième quatrième
Période de temps 1946 - 1959 1960 - 1969 1970 - 1979 depuis 1980
Base d'élément (pour unité de commande, ALU) Lampes électroniques (ou électriques) Semi-conducteurs (transistors) Circuits intégrés Circuits intégrés à grande échelle (LSI)
Type principal d'ordinateur Grand Petit (mini) Micro
Périphériques d'entrée de base Télécommande, carte perforée, entrée bande perforée Affichage alphanumérique et clavier ajoutés Affichage alphanumérique, clavier Écran graphique couleur, scanner, clavier
Principaux périphériques de sortie Dispositif d'impression alphanumérique (ADP), sortie sur bande perforée Traceur, imprimante
Mémoire externe Bandes magnétiques, tambours, bandes perforées, cartes perforées Disque magnétique ajouté Bandes de papier perforées, disque magnétique Disques magnétiques et optiques
Solutions logicielles clés Langages de programmation universels, traducteurs Des systèmes d'exploitation par lots qui optimisent les traducteurs Systèmes d'exploitation interactifs, langages de programmation structurés Logiciel convivial, systèmes d'exploitation réseau
Mode de fonctionnement de l'ordinateur Programme unique Lot Partage de temps Travail personnel et traitement en réseau
Objectif de l'utilisation d'un ordinateur Calculs scientifiques et techniques Calculs techniques et économiques Gestion et calculs économiques Télécommunications, services d'information

Tableau - Principales caractéristiques des ordinateurs de différentes générations


Génération

1

2

3

4

Période, années

1946 -1960

1955-1970

1965-1980

1980-présent vr.

Base d'élément

Les tubes à vide

Diodes et transistors semi-conducteurs

Circuits intégrés

Circuits intégrés à très grande échelle

Architecture

L'architecture de von Neumann

Mode multiprogramme

Réseaux informatiques locaux, systèmes informatiques partagés

Systèmes multiprocesseurs, ordinateurs personnels, réseaux mondiaux

Performance

10 à 20 000 opérations/s

100 à 500 000 opérations/s

Environ 1 million d'opérations/s

Des dizaines et des centaines de millions d'opérations/s

Logiciel

Langages machines

Systèmes d'exploitation, langages algorithmiques

Systèmes d'exploitation, systèmes de dialogue, systèmes d'infographie

Packages applicatifs, bases de données et connaissances, navigateurs

Appareils externes

Périphériques d'entrée à partir de bandes perforées et de cartes perforées,

ATsPU, téléimprimeurs, NML, NMB

Terminaux vidéo, disques durs

NGMD, modems, scanners, imprimantes laser

Application

Problèmes de calcul

Tâches d'ingénierie, scientifiques, économiques

ACS, CAO, tâches scientifiques et techniques

Tâches de gestion, communications, création de postes de travail, traitement de texte, multimédia

Exemples

ENIAC, UNIVAC (États-Unis);
BESM - 1,2, M-1, M-20 (URSS)

IBM 701/709 (États-Unis)
BESM-4, M-220, Minsk, BESM-6 (URSS)

IBM 360/370, PDP -11/20, Cray -1 (États-Unis) ;
UE 1050, 1066,
Elbrouz 1.2 (URSS)

Cray T3 E, SGI (États-Unis),
PC, serveurs, postes de travail de divers fabricants

En 50 ans, plusieurs générations d'ordinateurs sont apparues, se remplaçant les unes les autres. Le développement rapide du VT à travers le monde est déterminé uniquement par une base d'éléments et des solutions architecturales avancées.
Puisqu'un ordinateur est un système composé de matériel et de logiciels, il est naturel de comprendre une génération comme des modèles informatiques caractérisés par les mêmes solutions technologiques et logicielles (base d'éléments, architecture logique, logiciel). Entre-temps, dans un certain nombre de cas, il s'avère très difficile de classer les VT par génération, car la frontière entre elles devient de plus en plus floue de génération en génération.
Première génération.
La base des éléments est constituée de tubes et de relais électroniques ; La RAM a été réalisée sur des bascules, puis sur des noyaux de ferrite. La fiabilité est faible, un système de refroidissement était nécessaire ; Les ordinateurs avaient des dimensions importantes. Performance - 5 à 30 000 opérations arithmétiques ; Programmation - dans les codes informatiques (code machine), les autocodes et les assembleurs sont apparus plus tard. La programmation était réalisée par un cercle restreint de mathématiciens, de physiciens et d'ingénieurs en électronique. Les ordinateurs de première génération étaient principalement utilisés pour les calculs scientifiques et techniques.

Deuxième génération.
Base d'élément semi-conducteur. La fiabilité et les performances sont considérablement augmentées, les dimensions et la consommation électrique sont réduites. Développement de fonctionnalités d'entrée/sortie et de mémoire externe. Un certain nombre de solutions architecturales progressives et le développement ultérieur de la technologie de programmation - mode de partage de temps et mode multiprogrammation (combinant le travail du processeur central pour le traitement des données et les canaux d'entrée/sortie, ainsi que la parallélisation des opérations pour récupérer les commandes et les données de la mémoire)
Au cours de la deuxième génération, la différenciation des ordinateurs en petits, moyens et grands a commencé à apparaître clairement. Le champ d'application des ordinateurs pour résoudre des problèmes - planification, économie, gestion des processus de production, etc. - s'est considérablement élargi.
Des systèmes de contrôle automatisés (ACS) pour les entreprises, des industries entières et des processus technologiques (ACS) sont en cours de création. La fin des années 50 est caractérisée par l'émergence d'un certain nombre de langages de programmation de haut niveau (HLP) orientés problèmes : FORTRAN, ALGOL-60, etc. Le développement logiciel a été réalisé dans la création de bibliothèques de programmes standards dans divers langages de programmation et à diverses fins, moniteurs et répartiteurs pour contrôler les modes de fonctionnement d'un ordinateur, planifier ses ressources, ce qui a jeté les bases des concepts de systèmes d'exploitation de nouvelle génération.

Troisième génération.
Base d'éléments sur circuits intégrés (IC). Une série de modèles informatiques apparaissent, compatibles avec les logiciels de bas en haut et dotés de capacités croissantes d'un modèle à l'autre. L'architecture logique des ordinateurs et de leurs équipements périphériques est devenue plus complexe, ce qui a considérablement élargi les fonctionnalités et les capacités informatiques. Les systèmes d'exploitation (OS) font partie d'un ordinateur. De nombreuses tâches de gestion de la mémoire, des périphériques d'entrée/sortie et d'autres ressources ont commencé à être prises en charge par le système d'exploitation ou directement par le matériel informatique. Les logiciels deviennent puissants : des systèmes de gestion de bases de données (SGBD), des systèmes d'automatisation de la conception (CAO) à des fins diverses font leur apparition, les systèmes de contrôle automatisés et les systèmes de contrôle de processus sont améliorés. Une grande attention est accordée à la création de packages de programmes d'application (APP) à diverses fins.
Les langages et systèmes de programmation se développent. Exemples : - série de modèles IBM/360, USA, production en série - depuis 1964 ; -Ordinateurs de l'UE, pays de l'URSS et du CAEM depuis 1972.
Quatrième génération.
La base des éléments est constituée de circuits intégrés à grande échelle (LSI) et à très grande échelle (VLSI). Les ordinateurs étaient déjà conçus pour une utilisation efficace des logiciels (par exemple, les ordinateurs de type UNIX, mieux immergés dans l'environnement logiciel UNIX ; les machines Prolog axées sur les tâches d'intelligence artificielle) ; centrales nucléaires modernes. Le traitement de l'information par télécommunications se développe rapidement en améliorant la qualité des canaux de communication utilisant les communications par satellite. Des réseaux d'information et informatiques nationaux et transnationaux se créent, qui permettent de parler du début de l'informatisation de la société humaine dans son ensemble.
La poursuite de l'intellectualisation de la technologie informatique est déterminée par la création d'interfaces homme-machine, de bases de connaissances, de systèmes experts, de systèmes de programmation parallèle, etc.
La base d'éléments a permis d'obtenir de grands succès en matière de miniaturisation, augmentant ainsi la fiabilité et les performances des ordinateurs. Des micro et mini-ordinateurs sont apparus, dépassant les capacités des ordinateurs de taille moyenne et grande de la génération précédente à un coût nettement inférieur. La technologie de production de processeurs basés sur VLSI a accéléré le rythme de la production informatique et a permis d'introduire les ordinateurs dans les larges masses de la société. Avec l'avènement d'un processeur universel sur une seule puce (microprocesseur Intel-4004, 1971), l'ère du PC commence.
Le premier PC peut être considéré comme l'Altair-8800, créé sur la base de l'Intel-8080 en 1974. E. Roberts. P. Allen et W. Gates ont créé un traducteur à partir du langage populaire Basic, augmentant considérablement l'intelligence du premier PC (ils ont ensuite fondé la célèbre société Microsoft Inc). Le visage de la 4ème génération est largement déterminé par la création de supercalculateurs caractérisés par des performances élevées (vitesse moyenne 50 - 130 mégaflops. 1 mégaflops = 1 million d'opérations par seconde avec virgule flottante) et une architecture non traditionnelle (le principe de parallélisation basé sur traitement pipeline des commandes) . Les superordinateurs sont utilisés pour résoudre des problèmes de physique mathématique, de cosmologie et d'astronomie, pour modéliser des systèmes complexes, etc. Étant donné que les ordinateurs puissants jouent et continueront de jouer un rôle de commutation important dans les réseaux, les problèmes de réseau sont souvent abordés en même temps que les questions sur les superordinateurs. , supercalculateurs -Les ordinateurs peuvent être appelés machines de la série Elbrus, systèmes informatiques PS-2000 et PS-3000, contenant jusqu'à 64 processeurs contrôlés par un flux de commandes commun ; les performances sur un certain nombre de tâches ont été atteintes de l'ordre de 200 mégaflops. Dans le même temps, étant donné la complexité du développement et de la mise en œuvre de projets de superordinateurs modernes, qui nécessitent une recherche fondamentale intensive dans le domaine de l'informatique et des technologies électroniques, des normes de production élevées et des coûts financiers importants, il semble très peu probable que les projets nationaux des super-ordinateurs seront créés dans un avenir proche, dont les caractéristiques principales ne sont pas inférieures aux meilleurs modèles étrangers.
Il convient de noter qu'avec la transition vers la technologie IP pour la production informatique, l'accent déterminant des générations se déplace de plus en plus de la base d'éléments vers d'autres indicateurs : architecture logique, logiciels, interface utilisateur, domaines d'application, etc.
Cinquième génération.

Ordinateurs de troisième génération

Le développement rapide de l’aviation, de la technologie spatiale et d’autres domaines scientifiques et technologiques nécessitait des dispositifs informatiques miniatures, fiables et rapides. Par conséquent, le développement ultérieur de la technologie informatique électronique nécessitait le développement de nouvelles technologies, et ces technologies n’ont pas tardé à apparaître. De nouvelles avancées en matière de performances, de fiabilité et de miniaturisation ont été rendues possibles grâce à la technologie des circuits intégrés, qui a marqué la transition vers la troisième génération d'ordinateurs créée de 1964 à 1974.

L'utilisation de circuits intégrés présente de nombreux avantages :

1. La fiabilité des ordinateurs a augmenté. La fiabilité des circuits intégrés est d'un ordre de grandeur supérieure à la fiabilité de circuits similaires utilisant des composants discrets. L'augmentation de la fiabilité est principalement due à la réduction des connexions inter-circuits, qui constituent l'un des maillons les plus faibles de la conception d'un ordinateur. Une fiabilité accrue a, à son tour, conduit à une réduction significative du coût de fonctionnement des ordinateurs.

2. En augmentant la densité de conditionnement des circuits électroniques, le temps de transmission du signal le long des conducteurs a diminué et, par conséquent, la vitesse de l'ordinateur a augmenté.

3. La production de circuits intégrés se prête bien à l'automatisation qui, dans la production de masse, réduit fortement les coûts de production et contribue à la vulgarisation et à l'élargissement de la portée des applications informatiques.

4. La densité élevée des circuits électroniques a réduit les dimensions, le poids et la consommation d'énergie des ordinateurs de plusieurs ordres de grandeur, ce qui a permis de les utiliser dans des domaines scientifiques et technologiques auparavant inaccessibles, tels que l'aviation et la technologie spatiale.

Malgré les avantages évidents de l'utilisation de la technologie des circuits intégrés, leur utilisation généralisée dans les ordinateurs a commencé 12 ans plus tard, après le développement du concept de circuit intégré, publié en 1952 par Geoffrey Dummer du ministère britannique de la Défense. Cependant, Dammer a seulement exprimé l'idée de créer des éléments électroniques sous la forme d'un seul bloc en utilisant des couches semi-conductrices du même matériau, et il n'a pas indiqué comment placer en pratique plusieurs éléments dans un seul monolithe. En 1956, Dammer tenta de concrétiser ses idées, mais les appareils qu'il développa se révélèrent inopérants.

Jack Kilby de Texas Instruments et Robert Noyce de la petite entreprise Fairchild Semiconductor ont réussi à mettre en pratique les idées décrites.


En mai 1958, Jack Kilby a accepté un emploi chez Texas Instruments, où il a commencé à développer des transistors, des condensateurs et des résistances (il avait auparavant travaillé chez Centralab et était impliqué dans la production d'appareils auditifs à transistors). Un jour, l'équipe pour laquelle Jack Kilby travaillait a été chargée d'explorer les options permettant de créer des micromodules alternatifs. Diverses options ont été proposées et Kilby, réfléchissant au problème, est arrivé à la conclusion qu'il serait plus rentable pour l'entreprise de produire uniquement des éléments semi-conducteurs et que les résistances et les condensateurs pourraient être fabriqués à partir du même matériau que les éléments actifs et placés les en un seul bloc monolithique du même matériau. En réfléchissant à cette idée, Jack a proposé une topologie de circuit multivibrateur. Donc le 24 juillet 1958 L'idée d'une mise en œuvre pratique d'un circuit intégré est née.

Après avoir exposé ses idées à ses supérieurs, Jack fut chargé de créer un prototype pour prouver la validité de ses calculs. Ensuite, un circuit de déclenchement a été construit à partir d’éléments discrets en germanium. Le 28 août 1958, Jack Kilby fit une démonstration du tracé à Willis Adcock.

Après l'approbation de ses supérieurs, Kilby a commencé à créer un véritable circuit intégré monolithique : un oscillateur à déphasage.

En parallèle de Jack Kilby, Robert Noyce développait un circuit intégré. Robert n'aimait vraiment pas la technologie de production d'éléments discrets. Il a déclaré que le processus fastidieux consistant à découper une plaquette de silicium en éléments individuels, puis à les connecter en un seul circuit, semblait plutôt inutile. Noyce a proposé d'isoler les transistors individuels dans un cristal les uns des autres avec des jonctions p-n polarisées en inverse et de recouvrir la surface d'un oxyde isolant. Le contact entre les éléments individuels était effectué à travers des zones gravées dans l'oxyde isolant selon un motif spécial à la surface du microcircuit. Ces sections étaient reliées entre elles par de fines lignes en aluminium.

Kilby a créé sa puce et a déposé un brevet un peu plus tôt que Noyce. Cependant, la technologie de Noyce était plus réfléchie et plus pratique et les documents de demande ont été préparés avec plus de soin. En conséquence, Noyce a reçu un brevet pour l'invention plus tôt - en avril 1961, et Kilby - seulement en juin 1964.

Les nombreux procès qui ont suivi et la guerre pour le droit d’être considéré comme l’inventeur de la technologie se sont terminés dans la paix. En fin de compte, la Cour d'appel a confirmé la prétention de Noyce à la primauté technologique, mais a statué que Kilby était crédité de la création du premier microcircuit fonctionnel.

La production en série de circuits intégrés a commencé en 1961, au même moment où le premier ordinateur expérimental basé sur des circuits intégrés était créé par Texas Instruments, commandé par l'US Air Force. Le développement a duré 9 mois et s'est achevé en 1961. L'ordinateur n'avait que 15 commandes, était en monodiffusion, la fréquence d'horloge était de 100 KHz, la capacité de stockage n'était que de 30 chiffres, 11 chiffres binaires étaient utilisés pour représenter les nombres, la consommation électrique n'était que de 16 W, le poids était de 585 g, l'occupation le volume était de 100 centimètres cubes.

Les premiers circuits intégrés étaient à faible densité, mais au fil du temps, la technologie nécessaire à leur production s'est affinée et la densité a augmenté. Les ordinateurs de troisième génération utilisaient des circuits intégrés de faible et moyenne densité, ce qui permettait de combiner des centaines d'éléments dans une seule puce. De tels microcircuits pourraient être utilisés comme circuits opérationnels distincts - registres, décodeurs, compteurs, etc.

L'avènement des circuits intégrés a permis d'améliorer le schéma fonctionnel des ordinateurs de deuxième génération. Ainsi, des dispositifs de contrôle (CU) étroitement couplés et une unité arithmétique-logique (ALU) ont été combinés en une seule unité, connue sous le nom de processeur. De plus, le processeur pourrait avoir plusieurs dispositifs arithmétiques et logiques, chacun remplissant sa propre fonction, par exemple, une ALU se concentrait sur le travail avec des nombres entiers, une autre sur des nombres à virgule flottante et une troisième sur des adresses. Il pourrait également y avoir plusieurs dispositifs de contrôle, un central et plusieurs périphériques, utilisés pour contrôler des blocs informatiques individuels.

Souvent, les ordinateurs étaient constitués de plusieurs processeurs, ce qui permettait d'exploiter pleinement les nouvelles perspectives dans la résolution parallèle de problèmes.

Dans les ordinateurs de troisième génération, la hiérarchie de la mémoire est déjà clairement distinguée. La RAM est divisée en blocs indépendants dotés de leurs propres systèmes de contrôle, fonctionnant en parallèle. La structure de la RAM est divisée en pages et segments. La mémoire interne du processeur se développe également - les conditions préalables sont créées pour l'introduction de la mise en cache mémoire.

Les périphériques de stockage externes (ESD) sont connectés via un contrôleur de canal de sélection spécial (SCC). Leur capacité et leur vitesse augmentent considérablement. Ainsi, en juin 1973, le disque dur IBM 3340 est sorti en tant que périphérique de stockage externe.

Le lecteur était scellé - cela protégeait les surfaces de travail des disques de la poussière et de la saleté, ce qui permettait de placer les têtes très près de la surface magnétique du disque. Pour la première fois, le principe d'une tête magnétique aérodynamique a été appliqué, qui planait littéralement au-dessus de la surface en rotation du disque dur sous l'influence de la force aérodynamique.

Tout cela a permis d'augmenter considérablement la densité d'enregistrement (jusqu'à 1,7 Mbit par pouce carré) et d'augmenter la capacité jusqu'à 30 Mo (sur support non amovible). Le lecteur disposait également d'un support amovible d'une capacité de 30 Mo.

Parallèlement à l'amélioration des dispositifs logiques et de la mémoire, la modernisation des dispositifs d'entrée/sortie battait son plein. La vitesse des nouveaux ordinateurs exigeait un système d'entrée/sortie de données plus rapide et plus fiable que les lecteurs de cartes perforées et les télétypes. Ils ont été remplacés par des claviers, des panneaux de saisie graphique, des écrans à stylet lumineux, des panneaux plasma, des systèmes graphiques raster et d'autres appareils.

Une grande variété de périphériques, leur vitesse relativement élevée et la nécessité de séparer les opérations d'E/S du processus informatique ont conduit à la création d'un contrôleur de canal multiplex (MCC) spécialisé, qui permettait aux processeurs de fonctionner en parallèle avec les opérations d'E/S de données. O.

Un schéma fonctionnel généralisé d'un ordinateur de troisième génération, illustrant ce qui précède, est présenté dans le diagramme ci-dessous.

Sur le schéma :

UVV – dispositif d'entrée-sortie ;
RAM – un ou plusieurs dispositifs de mémoire vive ;
ALU - une ou plusieurs unités arithmétiques-logiques ;
CU - un ou plusieurs dispositifs de contrôle ;
MK - contrôleur de canal multiplex (canal pour connecter des appareils lents) ;
SK - contrôleur de canal sélecteur (canal pour connecter des appareils à grande vitesse);
ESD est un périphérique de stockage externe.

L'utilisation de technologies intégrées a considérablement réduit le coût des ordinateurs, ce qui a immédiatement entraîné une augmentation de la demande. De nombreuses organisations ont acheté des ordinateurs et les ont exploités avec succès. Un facteur important est le désir de standardisation et la sortie de séries entières d'ordinateurs dont les logiciels sont compatibles de bas en haut.

Il existe un énorme besoin de produits logiciels d'application, et comme le marché des logiciels ne s'est pas encore développé et qu'il est presque impossible de trouver des logiciels prêts à l'emploi, fiables et bon marché, il y a une augmentation gigantesque de la popularité de la programmation et de la demande de développeurs de logiciels compétents. Chaque entreprise s'efforce d'organiser son propre personnel de programmeurs ; des équipes spécialisées se forment qui développent des logiciels et s'efforcent d'occuper une part d'une niche encore inexploitée dans le domaine de la technologie informatique en croissance rapide.

Le marché des logiciels se développe rapidement, des progiciels sont créés pour résoudre des problèmes standards, des langages de programmation orientés problèmes et des complexes logiciels entiers pour gérer le fonctionnement des ordinateurs, qui seront plus tard appelés systèmes d'exploitation.

Les premiers systèmes d'exploitation ont commencé à apparaître à l'époque des ordinateurs de deuxième génération. Ainsi, en 1957, les Bell Labs développèrent le système d'exploitation BESYS (Bell Operating System). Et en 1962, General Electric a développé le système d’exploitation GCOS (General Comprehensive Operating System), conçu pour fonctionner sur les mainframes. Mais ce n'étaient que des conditions préalables à la création de systèmes d'exploitation véritablement populaires et demandés. À la fin des années 1960, un certain nombre de systèmes d'exploitation avaient déjà été créés, mettant en œuvre de nombreuses fonctions nécessaires à la gestion d'un ordinateur. Au total, plus d'une centaine de systèmes d'exploitation différents ont été utilisés.

Parmi les systèmes d'exploitation les plus développés figuraient :

OS/360, développé par IBM en 1964 pour gérer les ordinateurs centraux ;

MULTICIQUES- l'un des premiers systèmes d'exploitation dotés de programmes de partage de temps ;

UNIX, développé en 1969 et devenu par la suite toute une famille de systèmes d'exploitation, dont beaucoup sont parmi les plus populaires aujourd'hui.

L'utilisation de systèmes d'exploitation a simplifié le travail avec les ordinateurs et a contribué à la vulgarisation de la technologie informatique électronique.

Dans le contexte d'un intérêt croissant pour l'informatique électronique aux États-Unis, en Europe, au Japon et dans d'autres pays, en URSS, les progrès dans ce domaine scientifique ont diminué. Ainsi, en 1969, l'Union soviétique a conclu un accord de coopération pour le développement d'un système informatique unifié, dont le modèle était l'un des meilleurs ordinateurs de l'époque - l'IBM360. L'accent mis par l'URSS sur les réalisations étrangères a ensuite entraîné un retard important dans le domaine de la technologie informatique.

Parmi les ordinateurs de troisième génération, les développements les plus significatifs ont été :

Système IBM - 360- toute une famille d'ordinateurs dont la production a débuté en 1964. Tous les modèles de la famille avaient un système de commande unique et différaient les uns des autres par la quantité de RAM et les performances, et étaient universels, capables de résoudre à la fois des problèmes logiques complexes et d'être utiles dans les calculs économiques. La polyvalence de l'ordinateur se reflète dans son nom. 360 signifie 360 ​​degrés, c'est-à-dire sa capacité à travailler dans n'importe quelle direction. Le coût de développement du Système-360 s'est élevé à environ 5 milliards de dollars, soit le double de ce que les États-Unis ont dépensé pendant la Seconde Guerre mondiale pour le projet Manhattan, qui visait à créer une bombe atomique. Le projet de création de l'IBM 360 était le deuxième en termes de coût après le programme Apollo. L'architecture IBM 360 s'est avérée extrêmement réussie et a largement déterminé l'orientation du développement de la technologie informatique ;

PDP8- un mini-ordinateur développé le 22 mars 1965 par Digital Equipment Corporation (DEC). Le terme « mini » est relatif. Cet ordinateur avait à peu près la taille d'un réfrigérateur, mais, comparé à d'autres représentants d'ordinateurs électroniques, sa taille était vraiment miniature. Ce projet était commercialement très rentable. Au total, environ 50 000 exemplaires de cette voiture ont été vendus. Le système PDP-8 comportait de nombreuses solutions similaires - des clones partout dans le monde. Ainsi, en URSS, plusieurs analogues de cet ordinateur ont été développés : Elektronika-100, Saratov-2, etc. ;

Nairi 3- l'un des premiers ordinateurs de troisième génération développés indépendamment en URSS. Ce développement a été publié en 1970 à l’Institut de recherche sur les machines mathématiques d’Erevan. Il utilisait un langage machine simplifié pour faciliter la programmation. Il était également possible de saisir certains problèmes en langage mathématique ;

ORDINATEUR ES- un système unifié d'ordinateurs électroniques, basé sur l'architecture réussie et éprouvée de l'IBM System-360. Les premières voitures de cette série ont été créées en URSS en 1971. Les performances des premiers échantillons variaient de 2 750 opérations par seconde (EC-1010) à 350 000 opérations par seconde (EC-1040). Par la suite, la productivité a été portée à plusieurs dizaines de millions d’opérations par seconde, mais pratiquement toutes ces évolutions ont été stoppées dans les années 1990 après l’effondrement de l’URSS ;

ILLIAC 4– l’un des ordinateurs de troisième génération les plus productifs. ILLIAC 4 a été créé en 1972 à l'Université de l'Illinois et disposait d'une architecture pipeline composée de 64 processeurs. L'ordinateur était destiné à résoudre un système d'équations aux dérivées partielles et avait une vitesse d'environ 200 millions d'opérations par seconde.

Cette liste peut être poursuivie, mais il est clair que les ordinateurs sont déjà fermement et depuis longtemps entrés dans nos vies, et que leur développement et leur amélioration ne peuvent être arrêtés. Avec le développement de la technologie de production de circuits intégrés, la densité des éléments a progressivement augmenté. De très grands circuits intégrés ont commencé à apparaître et les ordinateurs de troisième génération, construits sur des circuits intégrés de faible et moyenne densité, ont progressivement commencé à être remplacés par des ordinateurs de quatrième génération sur de grands et très grands circuits intégrés.

Bibliographie

1. Histoire du développement de la technologie informatique. Lanina E.P. ISTU, Irkoutsk – 2001

2. Développement de la technologie informatique. Apokin I.A. M., « Sciences », 1974

3. Un look de technicien.

4. Méthodologue.

6. Du boulier à l’ordinateur. RS Guter. Maison d'édition "Connaissance", Moscou 1981.

Après la création du modèle EDSAC en Angleterre en 1949, une puissante impulsion a été donnée au développement d'ordinateurs à usage général, ce qui a stimulé l'émergence de modèles informatiques qui constituaient la première génération dans un certain nombre de pays. Au cours de plus de 40 ans de développement de la technologie informatique (CT), plusieurs générations d'ordinateurs sont apparues, se remplaçant les unes les autres.

Les ordinateurs de première génération utilisaient des tubes à vide et des relais comme base élémentaire ; La RAM a été réalisée sur des bascules, plus tard sur des noyaux de ferrite ; les performances étaient, en règle générale, de l'ordre de 5 à 30 000 opérations arithmétiques ; ils se caractérisaient par une faible fiabilité, nécessitaient des systèmes de refroidissement et avaient des dimensions importantes. Le processus de programmation exigeait des compétences considérables, une bonne connaissance de l'architecture informatique et de ses capacités logicielles. Au début de cette étape, la programmation en codes informatiques (code machine) a été utilisée, puis les autocodes et les assembleurs sont apparus. En règle générale, les ordinateurs de première génération étaient utilisés pour les calculs scientifiques et techniques, et le processus de programmation lui-même ressemblait davantage à un art pratiqué par un cercle très restreint de mathématiciens, d'ingénieurs électriciens et de physiciens.

Ordinateur EDSAC, 1949

Ordinateur de 2ème génération

La création du premier transistor aux États-Unis le 1er juillet 1948 ne présageait pas une nouvelle étape dans le développement du VT et était principalement associée à l'ingénierie radio. Au début, il s’agissait plutôt d’un prototype d’un nouvel appareil électronique, nécessitant de sérieuses recherches et perfectionnements. Et déjà en 1951, William Shockley démontrait le premier transistor fiable. Cependant, leur coût était assez élevé (jusqu'à 8 dollars pièce) et ce n'est qu'après le développement de la technologie du silicium que leur prix a fortement chuté, contribuant ainsi à accélérer le processus de miniaturisation de l'électronique, qui a également affecté le VT.

Il est généralement admis que la deuxième génération commence avec l'ordinateur RCA-501, apparu en 1959 aux États-Unis et créé sur une base d'éléments semi-conducteurs. Entre-temps, en 1955, un ordinateur à transistors embarqué a été créé pour le missile balistique intercontinental ATLAS. La nouvelle technologie des éléments a permis d'augmenter considérablement la fiabilité du VT, de réduire ses dimensions et sa consommation d'énergie et d'augmenter considérablement la productivité. Cela a permis de créer des ordinateurs dotés de capacités logiques et de productivité supérieures, ce qui a contribué à l'élargissement de la portée des applications informatiques pour résoudre des problèmes de planification économique, de gestion des processus de production, etc. Dans le cadre de la deuxième génération, la différenciation des ordinateurs la répartition entre petits, moyens et grands devient de plus en plus claire. La fin des années 50 est caractérisée par le début de l'étape d'automatisation de la programmation, qui conduit à l'émergence des langages de programmation Fortran (1957), Algol-60, etc.

Ordinateur de 3ème génération

La troisième génération est associée à l'avènement des ordinateurs dotés d'une base élémentaire sur circuits intégrés (IC). En janvier 1959, Jack Kilby créa le premier IC, qui était une fine plaque de germanium de 1 cm de long. Pour démontrer les capacités de la technologie intégrée, Texas Instruments créa pour l'US Air Force un ordinateur de bord contenant 587 IC et un volume (40 cm3) 150 fois plus petit qu’un ordinateur similaire à l’ancienne. Mais le CI de Kilby présentait un certain nombre de défauts importants, qui ont été éliminés avec l'avènement des CI planaires de Robert Noyce la même année. À partir de ce moment, la technologie IC a commencé sa marche triomphale, capturant de plus en plus de nouvelles sections de l'électronique moderne et, en premier lieu, de la technologie informatique.

Le logiciel qui assure le fonctionnement de l'ordinateur dans différents modes de fonctionnement devient nettement plus puissant. Des systèmes de gestion de bases de données développés (SGBD), des systèmes d'automatisation de la conception (CAO) font leur apparition ; Une grande attention est accordée à la création de packages de programmes d'application (APP) à diverses fins. De nouveaux langages et systèmes de programmation continuent d'apparaître et ceux existants sont développés.

Ordinateur de 4ème génération

La conception et la base technologique du VT de 4e génération sont constituées de circuits intégrés à grande échelle (LSI) et à très grande échelle (VLSI), créés respectivement dans les années 70 et 80. De tels circuits intégrés contiennent déjà des dizaines, des centaines de milliers et des millions de transistors sur un seul cristal (puce). Parallèlement, la technologie LSI était partiellement utilisée dans les projets de la génération précédente (IBM/360, ES Computer Series-2, etc.). Le critère conceptuel le plus important par lequel les ordinateurs de 4e génération peuvent être séparés des ordinateurs de 3e génération est que les premiers ont été conçus dans l'espoir d'utiliser efficacement les ordinateurs modernes et de simplifier le processus de programmation pour le programmeur problématique. En termes de matériel, ils se caractérisent par une utilisation intensive de la technologie IC et des périphériques de stockage à haut débit. La série la plus célèbre d'ordinateurs de quatrième génération peut être considérée comme l'IBM/370, qui, contrairement à la série IBM/360 de 3e génération tout aussi connue, dispose d'un système de commande plus développé et d'une utilisation plus large de la microprogrammation. Dans les anciens modèles de la série 370, un périphérique de mémoire virtuelle a été implémenté, ce qui permet à l'utilisateur de créer l'apparence de ressources RAM illimitées.

Le phénomène de l'ordinateur personnel (PC) remonte à la création en 1965 du premier mini-ordinateur, le PDP-8, né de l'universalisation d'un microprocesseur spécialisé pour le contrôle d'un réacteur nucléaire. La machine gagna rapidement en popularité et devint le premier ordinateur produit en série de cette classe ; au début des années 70, le nombre de voitures dépassait les 100 000 unités. Une autre étape importante a été le passage des mini-ordinateurs aux micro-ordinateurs ; ce nouveau niveau structurel de VT a commencé à prendre forme au tournant des années 70, lorsque l'avènement du LSI a permis de créer un processeur universel sur une seule puce. Le premier microprocesseur Intel-4004 a été créé en 1971 et contenait 2 250 éléments, et le premier microprocesseur universel Intel-8080, qui était la norme pour la technologie des micro-ordinateurs et créé en 1974, contenait déjà 4 500 éléments et a servi de base à la création du premiers PC. En 1979, l'un des microprocesseurs 16 bits les plus puissants et les plus polyvalents, le Motorolla-68000, avec 70 000 éléments, a été lancé, et en 1981, le premier microprocesseur 32 bits de Hewlett Packard avec 450 000 éléments a été lancé.

PC Altaïr-8800

Le premier PC peut être considéré comme l'Altair-8800, créé sur la base du microprocesseur Intel-8080 en 1974 par Edward Roberts. L'ordinateur a été envoyé par courrier, ne coûtait que 397 $ et était extensible avec des périphériques (seulement 256 octets de RAM !!!). Pour l'Altair-8800, Paul Allen et Bill Gates ont créé un traducteur à partir du langage Basic populaire, augmentant considérablement l'intelligence du premier PC (ils ont ensuite fondé la désormais célèbre Microsoft Inc). Equiper un PC d'un moniteur couleur a conduit à la création d'un modèle de PC concurrent, le Z-2 ; un an après l'apparition du premier PC Altair-8800, plus de 20 sociétés et sociétés différentes ont rejoint la production de PC ; L'industrie du PC commence à prendre forme (la production des PC elle-même, leurs ventes, publications périodiques et non périodiques, expositions, conférences, etc.). Et déjà en 1977, trois modèles de PC Apple-2 (Apple Computers), TRS-80 (Tandy Radio Shark) et PET (Commodore) ont été mis en production en série, dont Apple, initialement en retard par rapport à la concurrence, est rapidement devenu leader de la production de PC (son modèle Apple-2 a connu un énorme succès). En 1980, Apple Corporation est entrée à Wall Street avec le plus grand capital social et un revenu annuel de 117 millions de dollars.

Mais déjà en 1981, IBM, afin d'éviter de perdre le marché de masse, a commencé à produire ses séries de PC IBM PC/XT/AT et PS/2, désormais largement connues, qui ont ouvert une nouvelle ère de technologie informatique personnelle. L'entrée du géant IBM dans l'arène de l'industrie PC place la production de PC sur une base industrielle, ce qui permet de résoudre un certain nombre de problématiques importantes pour l'utilisateur (standardisation, unification, logiciels développés, etc.), auxquelles le La société a déjà accordé une grande attention dans le cadre de la production des séries IBM/360 et IBM/370. Nous pouvons raisonnablement croire que dans la courte période qui s'est écoulée entre les débuts de l'Altair-8800 et le PC IBM, plus de personnes ont rejoint le VT que dans toute la longue période - du moteur analytique de Babage à l'invention de la première IP.

Le premier ordinateur qui a ouvert la classe des supercalculateurs lui-même peut être considéré comme le modèle Amdahl 470V16, créé en 1975 et compatible avec la série IBM. La machine utilisait un principe de parallélisation efficace basé sur le traitement pipeline des commandes, et la base d'éléments utilisait la technologie LSI. Actuellement, la classe des supercalculateurs comprend des modèles avec une vitesse moyenne d'au moins 20 mégaflops (1 mégaflops = 1 million d'opérations en virgule flottante par seconde). Le premier modèle offrant de telles performances était l'ordinateur ILLIAC-IV, en grande partie unique, créé en 1975 aux États-Unis et ayant une vitesse maximale d'environ 50 mégaflops. Ce modèle a eu un impact énorme sur le développement ultérieur des supercalculateurs à architecture matricielle. Une page lumineuse de l'histoire des supercalculateurs est associée à la série Cray de S. Cray, dont le premier modèle, Cray-1, a été créé en 1976 et avait une vitesse de pointe de 130 mégaflops. L'architecture du modèle était basée sur le principe pipeline de traitement de données vectorielles et scalaires avec une base élémentaire sur VLSI. C’est ce modèle qui a jeté les bases de la classe des supercalculateurs modernes. Il convient de noter que malgré un certain nombre de solutions architecturales intéressantes, le succès du modèle a été obtenu principalement grâce à des solutions technologiques réussies. Les modèles suivants Cray-2, Cray X-MP, Cray-3, Cray-4 ont porté les performances de la série à environ 10 000 mégaflops, et le modèle Cray MP, utilisant une nouvelle architecture avec 64 processeurs et une base élémentaire sur de nouvelles puces de silicium, avait des performances maximales d'environ 50 gigaflops.

Pour conclure l'excursion dans l'histoire de la technologie militaire moderne avec l'un ou l'autre détail de ses différentes étapes, plusieurs commentaires importants doivent être faits. Tout d'abord, il y a une transition de plus en plus douce d'une génération d'ordinateurs à une autre, lorsque les idées de la nouvelle génération mûrissent à un degré ou à un autre et sont même mises en œuvre dans la génération précédente. Ceci est particulièrement visible lors de la transition vers la technologie IC pour la production de VT, lorsque l'accent déterminant des générations se déplace de plus en plus de la base d'éléments vers d'autres indicateurs : architecture logique, logiciel, interface utilisateur, domaines d'application, etc. Les VT les plus divers apparaît, dont les caractéristiques ne rentrent pas dans les cadres de classification traditionnels ; on a l'impression que nous sommes au début d'une sorte d'universalisation de l'informatique, alors que toutes ses classes s'efforcent d'égaliser leurs capacités informatiques. De nombreux éléments de la cinquième génération sont, à un degré ou à un autre, caractéristiques aujourd'hui.

Le développement des ordinateurs est divisé en plusieurs périodes. Les générations d'ordinateurs de chaque période diffèrent les unes des autres par leur base élémentaire et leurs logiciels.

Première génération d'ordinateurs

La première génération (1945-1958) d'ordinateurs était construite sur des tubes électroniques - diodes et triodes. La plupart des machines de première génération étaient des dispositifs expérimentaux et étaient construites pour tester certains principes théoriques. L'utilisation de la technologie des tubes à vide, l'utilisation de systèmes de mémoire sur les lignes à retard au mercure, les tambours magnétiques, les tubes cathodiques (tubes Williams), rendaient leur fonctionnement très peu fiable. De plus, ces ordinateurs étaient lourds et occupaient de vastes zones, parfois des bâtiments entiers. Des bandes perforées et des cartes perforées, des bandes magnétiques et des dispositifs d'impression ont été utilisés pour l'entrée et la sortie des données.

Le concept de programme stocké a été mis en œuvre. Le logiciel des ordinateurs de 1ère génération était principalement constitué de sous-programmes standard ; leur vitesse variait de 10 à 20 000 opérations. /seconde.

Machines de cette génération : ENIAC (USA), MESM (URSS), BESM-1, M-1, M-2, M-Z, "Strela", "Minsk-1", "Ural-1", "Ural-2" ", "Ural-3", M-20, "Setun", BESM-2, "Hrazdan", IBM - 701, consommaient beaucoup d'électricité et étaient constitués d'un très grand nombre de tubes à vide. Par exemple, la machine Strela était composée de 6 400 tubes à vide et de 60 000 diodes semi-conductrices. Leurs performances ne dépassaient pas 2 à 3 000 opérations par seconde, la RAM ne dépassait pas 2 Ko. Seule la machine M-2 (1958) disposait de 4 Ko de RAM et d'une vitesse de 20 000 opérations par seconde.

Deuxième génération d'ordinateurs

Les ordinateurs de 2e génération ont été développés entre 1959 et 1967. L'élément principal n'était plus les tubes à vide, mais les diodes et transistors semi-conducteurs, ainsi que les noyaux magnétiques et les tambours magnétiques, les lointains ancêtres des disques durs modernes, ont commencé à être utilisés comme dispositifs de mémoire. Les ordinateurs sont devenus plus fiables, leurs performances ont augmenté, la consommation d'énergie a diminué et les dimensions globales des machines ont diminué.

Avec l'avènement de la mémoire sur noyaux magnétiques, son cycle de fonctionnement a été réduit à des dizaines de microsecondes. Le principe principal de la structure est la centralisation. Des appareils hautes performances permettant de travailler avec des bandes magnétiques et des dispositifs de mémoire sur disques magnétiques sont apparus. De plus, il est devenu possible de programmer dans des langages algorithmiques. Les premiers langages de haut niveau ont été développés - Fortran, Algol, Cobol. Les performances des machines de 2e génération ont déjà atteint 100 à 5 000 000 opérations. /seconde.

Exemples de machines de deuxième génération : BESM-6, BESM-4, Minsk-22 - sont conçues pour résoudre des problèmes de planification scientifique, technique et économique ; Minsk-32 (URSS), ordinateur M-40, - 50 - pour les systèmes de défense antimissile ; Ural - 11, - 14, - 16 - ordinateurs à usage général, axés sur la résolution de problèmes d'ingénierie et techniques.

Ordinateurs de troisième génération

Les ordinateurs de troisième génération (1968-1973) utilisaient des circuits intégrés. Le développement dans les années 60 des circuits intégrés - dispositifs entiers et assemblages de dizaines et centaines de transistors réalisés sur un seul cristal semi-conducteur (ce qu'on appelle aujourd'hui microcircuits) a conduit à la création d'ordinateurs de 3ème génération. Dans le même temps, est apparue la mémoire à semi-conducteurs, qui est encore utilisée dans les ordinateurs personnels comme mémoire opérationnelle. L'utilisation de circuits intégrés a considérablement augmenté les capacités des ordinateurs.

Désormais, le processeur central a la capacité de fonctionner en parallèle et de contrôler de nombreux périphériques. Les ordinateurs pourraient traiter simultanément plusieurs programmes (principe de la multiprogrammation). Grâce à la mise en œuvre du principe de multiprogrammation, il est devenu possible de travailler en temps partagé en mode interactif. Les utilisateurs distants de l'ordinateur ont eu la possibilité, indépendamment les uns des autres, d'interagir rapidement avec la machine.

Les ordinateurs ont été conçus sur la base de circuits intégrés de faible degré d'intégration (MIS - 10 à 100 composants par puce) et de degré d'intégration moyen (SIS - 10 à 1 000 composants par puce). L'idée est née, qui a été mise en œuvre, de concevoir une famille d'ordinateurs avec la même architecture, basée principalement sur le logiciel. À la fin des années 60, les mini-ordinateurs font leur apparition. En 1971, le premier microprocesseur apparaît. La vitesse des ordinateurs de 3e génération a atteint environ 1 million d'opérations. /seconde.

Durant ces années, la production informatique acquiert une ampleur industrielle. Depuis les ordinateurs de 3ème génération, le développement des ordinateurs série est devenu traditionnel. Bien que les machines de la même série soient très différentes les unes des autres en termes de capacités et de performances, elles étaient compatibles sur le plan informationnel, logiciel et matériel. La famille la plus courante à cette époque était la famille System/360 d'IBM. Les pays du CAEM ont produit des ordinateurs d'une seule série « ES Computer » : ES-1022, ES-1030, ES-1033, ES-1046, ES-1061, ES-1066, etc. Les ordinateurs de cette génération comprennent également « IVM-370 ", "Électronique-100/25", "Électronique-79", "SM-3", "SM-4", etc.

Pour les séries informatiques, les logiciels ont été considérablement enrichis (systèmes d'exploitation, langages de programmation de haut niveau, programmes d'application, etc.). En 1969, le système d'exploitation Unix et le langage de programmation C sont apparus simultanément, ce qui a eu un impact énorme sur le monde du logiciel et conserve toujours sa position de leader.

Quatrième génération d'ordinateurs

Dans les ordinateurs de quatrième génération (1974-1982), l'utilisation de circuits intégrés à grande échelle (LSI - 1 000 à 1 000 000 composants par puce) et de circuits intégrés à très grande échelle (VLSI - 100 000 à 1 000 000 composants par puce) a augmenté leurs performances. à des dizaines et des centaines de millions, op. /seconde.

Le début de cette génération est considéré comme 1975 - Amdahl Corp. a lancé six ordinateurs AMDAHL 470 V/6, qui utilisaient LSI comme base élémentaire. Des systèmes de mémoire à grande vitesse sur circuits intégrés ont commencé à être utilisés - MOS RAM d'une capacité de plusieurs mégaoctets. Si la machine est éteinte, les données contenues dans la RAM MOS sont enregistrées par transfert automatique sur disque. Lorsque la machine est allumée, le système commence à utiliser un programme de démarrage stocké dans la ROM (mémoire morte), qui décharge le système d'exploitation et les logiciels résidents dans la RAM MOS.

Le développement des ordinateurs de 4ème génération s'est déroulé dans 2 directions : 1ère direction - la création de supercalculateurs - des complexes de machines multiprocesseurs. La vitesse de ces machines atteint plusieurs milliards d'opérations par seconde. Ils sont capables de traiter d’énormes quantités d’informations. Il s'agit notamment des complexes ILLIAS-4, CRAY, CYBER, Elbrus-1, Elbrus-2, etc. Les complexes informatiques multiprocesseurs (MCC) Elbrus-2 ont été activement utilisés en Union soviétique dans des domaines nécessitant un grand volume de calculs, avant tout dans l'industrie de la défense.

2ème direction - développement ultérieur sur la base des micro-ordinateurs et ordinateurs personnels (PC) LSI et VLSI. Les premiers représentants de ces machines sont des ordinateurs Apple, IBM - PC (XT, AT, PS/2), nationaux "Iskra", "Electronics", "Mazovia", "Agat", "ES-1840", "ES- 1841", etc. À partir de cette génération, les ordinateurs ont commencé à être appelés ordinateurs. Le logiciel est complété par des bases de données et des banques.

Cinquième génération d'ordinateurs

L'ordinateur de cinquième génération est l'ordinateur du futur. Le programme de développement de la cinquième génération d'ordinateurs a été adopté au Japon en 1982. On supposait que d'ici 1991, des ordinateurs fondamentalement nouveaux seraient créés, axés sur la résolution des problèmes d'intelligence artificielle. Avec l'aide du langage Prolog et des innovations en matière de conception informatique, il était prévu de se rapprocher de la résolution de l'un des principaux problèmes de cette branche de l'informatique - le problème du stockage et du traitement des connaissances. Bref, pour les ordinateurs de cinquième génération, il n’y aurait pas besoin d’écrire des programmes, mais il suffirait d’expliquer dans un langage « presque naturel » ce qu’on attend d’eux.

On suppose que leur base élémentaire ne sera pas des VLSI, mais des dispositifs créés sur cette base avec des éléments d'intelligence artificielle. Pour augmenter la mémoire et la vitesse, les progrès de l'optoélectronique et des bioprocesseurs seront utilisés.

Pour les ordinateurs de cinquième génération, des tâches complètement différentes sont posées par rapport au développement de tous les ordinateurs précédents. Si les développeurs d'ordinateurs de la 1ère à la 4ème génération étaient confrontés à des tâches telles qu'augmenter la productivité dans le domaine des calculs numériques, atteindre une grande capacité de mémoire, alors la tâche principale des développeurs d'ordinateurs de 5ème génération est la création d'une intelligence artificielle de la machine (la capacité de tirer des conclusions logiques à partir des faits présentés), le développement de « l'intellectualisation » des ordinateurs - éliminant la barrière entre l'homme et l'ordinateur.

Malheureusement, le projet informatique japonais de cinquième génération a répété le sort tragique des premières recherches dans le domaine de l'intelligence artificielle. Plus de 50 milliards de yens d'investissement ont été gaspillés, le projet a été abandonné et les appareils développés ne se sont pas révélés plus performants que les systèmes produits en série de l'époque. Cependant, les recherches menées au cours du projet et l'expérience acquise en matière de représentation des connaissances et de méthodes d'inférence parallèle ont grandement contribué aux progrès dans le domaine des systèmes d'intelligence artificielle en général.

Déjà maintenant, les ordinateurs sont capables de percevoir des informations à partir de textes manuscrits ou imprimés, de formulaires, de voix humaine, de reconnaître l'utilisateur par la voix et de traduire d'une langue à une autre. Cela permet à tous les utilisateurs de communiquer avec les ordinateurs, même ceux qui n'ont pas de connaissances particulières dans ce domaine.

De nombreuses avancées réalisées par l’intelligence artificielle sont utilisées dans l’industrie et le monde des affaires. Les systèmes experts et les réseaux de neurones sont utilisés efficacement pour les tâches de classification (filtrage du SPAM, catégorisation de textes, etc.). Les algorithmes génétiques servent consciencieusement les humains (utilisés, par exemple, pour optimiser les portefeuilles dans les activités d'investissement), la robotique (l'industrie, ainsi que les systèmes multi-agents. D'autres domaines de l'intelligence artificielle, par exemple la représentation distribuée des connaissances et la résolution de problèmes sur Internet, sont pas endormi : grâce à eux, dans les prochaines années, on peut s'attendre à une révolution dans de nombreux domaines de l'activité humaine.

Au stade actuel, l'historique à distance des appareils informatiques

Le besoin de processeurs plus rapides, moins chers et plus polyvalents oblige les fabricants à augmenter constamment le nombre de transistors. Toutefois, ce processus n’est pas sans fin. La croissance exponentielle de ce nombre prédite par Gordon Moore en 1973 devient de plus en plus difficile à maintenir. Les experts disent que cette loi cessera de s'appliquer dès que les grilles des transistors, qui régulent le flux d'informations dans la puce, deviendront proportionnelles à la longueur d'onde de l'électron (dans le silicium, sur lequel est actuellement construite la production, elle est d'environ 10 nanomètres). Et cela se produira entre 2010 et 2020. À mesure que les architectures informatiques deviennent plus sophistiquées à mesure qu’elles approchent de leurs limites physiques, le coût de conception, de fabrication et de test des puces augmente. Ainsi, le stade de développement évolutif sera tôt ou tard remplacé par des changements révolutionnaires.

La course à l’augmentation de la productivité soulève de nombreux problèmes. Le plus grave d'entre eux est la surchauffe dans les emballages ultra-denses, provoquée par une zone de transfert de chaleur nettement plus petite. La concentration d'énergie dans les microprocesseurs modernes est extrêmement élevée. Les stratégies actuelles pour dissiper la chaleur générée, telles que la réduction de la tension d'alimentation ou l'activation sélective uniquement des pièces nécessaires dans les microcircuits, sont inefficaces à moins d'utiliser un refroidissement actif.

À mesure que la taille des transistors diminue, les couches isolantes sont devenues plus fines, ce qui signifie que leur fiabilité a également diminué, puisque les électrons peuvent pénétrer à travers de minces isolants (effet tunnel). Ce problème peut être résolu en réduisant la tension de commande, mais seulement jusqu'à certaines limites.

Aujourd'hui, la principale condition pour augmenter les performances du processeur réside dans les méthodes de parallélisme. Comme vous le savez, un microprocesseur traite une séquence d'instructions (commandes) qui constituent un programme particulier. Si vous organisez une exécution parallèle (c'est-à-dire simultanée) des instructions, les performances globales augmenteront considérablement. Le problème du parallélisme est résolu par des méthodes de calculs de pipeline, utilisant une architecture superscalaire et la prédiction de branchement. Architecture multicœur. Cette architecture implique l'intégration de plusieurs cœurs de microprocesseur simples sur une seule puce. Chaque cœur exécute son propre flux d'instructions. Chaque cœur de microprocesseur est nettement plus simple qu'un cœur de processeur multithread, ce qui facilite la conception et les tests de puces. Mais entre-temps, le problème d’accès à la mémoire s’aggrave et les compilateurs doivent être remplacés.

Processeur multithread. Ces processeurs ont une architecture similaire aux traceurs : l'ensemble de la puce est divisé en éléments de traitement rappelant un microprocesseur superscalaire. Contrairement à un processeur de trace, ici chaque élément traite les instructions de différents threads au cours d'un cycle d'horloge, réalisant ainsi un parallélisme au niveau des threads. Bien entendu, chaque thread possède son propre compteur de programme et son propre ensemble de registres.

Architecture "tuile". Les partisans estiment que les logiciels devraient être compilés directement dans le matériel, car cela assurerait un parallélisme maximal. Cette approche nécessite des compilateurs assez complexes, qui n'ont pas encore été créés. Le processeur dans ce cas se compose de nombreuses « tuiles », dont chacune possède sa propre RAM et est connectée à d'autres « tuiles » dans une sorte de réseau dont les nœuds peuvent être activés et désactivés. L'ordre dans lequel les instructions sont exécutées est défini par le logiciel.

Architecture à plusieurs étages. Ici, nous ne parlons pas de structure logique, mais de structure physique. L'idée est que les puces contiendraient des « empilements » verticaux de microcircuits réalisés à l'aide de la technologie des transistors à couches minces empruntée à la fabrication des écrans TFT. Dans ce cas, les interconnexions horizontales relativement longues sont converties en interconnexions verticales courtes, ce qui réduit la latence du signal et augmente les performances du processeur. L'idée de puces « tridimensionnelles » a déjà été mise en œuvre sous la forme d'échantillons fonctionnels de puces mémoire à huit étages. Il est fort possible que cela soit également acceptable pour les microprocesseurs et, dans un avenir proche, toutes les micropuces seront étendues non seulement horizontalement, mais aussi verticalement.