Histoire du développement des ordinateurs mécaniques. Ingénierie informatique. De la calculatrice à l'ordinateur

Conférence n° 10. HISTOIRE DU DÉVELOPPEMENT DU GÉNIE INFORMATIQUE

1.1. LA PREMIÈRE ÉTAPE DU DÉVELOPPEMENT DE L'ÉQUIPEMENT INFORMATIQUE

Le besoin d’automatiser le traitement des données, y compris les calculs, est apparu il y a longtemps. On pense qu'historiquement, le premier appareil de comptage, et par conséquent le plus simple, était le boulier, qui fait référence aux appareils de comptage portatifs.

La planche était divisée en rainures. Un sillon correspondait aux unités, l’autre aux dizaines, etc. Si plus de 10 cailloux étaient collectés dans un sillon lors du comptage, ils étaient retirés et un caillou était ajouté au rang suivant. Dans les pays d'Extrême-Orient, l'analogue chinois du boulier était répandu - suan-pan(le comptage n'était pas basé sur dix, mais sur cinq), en Russie - abaque.

Abaque

Suan-pan. Créé en 1930

Abaque. Ensemble 401.28

La première tentative qui nous est parvenue pour résoudre le problème de la création d'une machine capable d'additionner des nombres entiers à plusieurs chiffres était une esquisse d'un dispositif d'addition de 13 bits développé par Léonard de Vinci vers 1500.

En 1642, Blaise Pascal inventa un appareil permettant d'effectuer mécaniquement l'addition de nombres. Ayant pris connaissance des travaux de Pascal et étudié sa machine arithmétique, Gottfried Wilhelm Leibniz y apporta des améliorations significatives et, en 1673, il conçut un arithmomètre qui permet mécaniquement effectuer quatre opérations arithmétiques. Depuis le XIXe siècle, les machines à calculer sont devenues très répandues et utilisées. Ils ont même effectué des calculs très complexes, par exemple des calculs de tables balistiques pour les tirs d'artillerie. Il y avait un métier spécial : celui de comptoir.

Malgré des progrès évidents par rapport au boulier et autres appareils similaires de calcul manuel, ces appareils informatiques mécaniques nécessitait une participation humaine constante pendant le processus de calcul. Une personne, effectuant des calculs sur un tel appareil, contrôle elle-même son fonctionnement et détermine la séquence des opérations effectuées.

Le rêve des inventeurs de l'informatique était de créer une machine à compter qui, sans intervention humaine, effectuerait des calculs selon un programme pré-compilé.

Dans la première moitié du XIXe siècle, le mathématicien anglais Charles Babbage a tenté de créer un appareil informatique universel : Machine analytique, qui était censé effectuer des opérations arithmétiques sans intervention humaine. Le moteur analytique incorporait des principes devenus fondamentaux en informatique et fournissait tous les composants de base d'un ordinateur moderne. Le moteur analytique de Babbage devait être composé des éléments suivants :

1. « Factory » est un appareil dans lequel sont effectuées toutes les opérations de traitement de tous types de données (ALU).

2. « Bureau » est un dispositif qui assure l'organisation de l'exécution d'un programme de traitement de données et le fonctionnement coordonné de tous les composants de la machine au cours de ce processus (CU).

3. « Entrepôt » est un dispositif conçu pour stocker les données initiales, les valeurs intermédiaires et les résultats du traitement des données (mémoire, ou simplement mémoire).

4. Appareils capables de convertir des données sous une forme accessible à un ordinateur (encodage). Des dispositifs d'entrée.

5. Appareils capables de convertir les résultats du traitement des données sous une forme compréhensible pour les humains. Des dispositifs de sortie.

Dans la version finale de la machine, elle disposait de trois dispositifs d'entrée à carte perforée à partir desquels étaient lus le programme et les données à traiter.

Babbage n'a pas pu terminer le travail - cela s'est avéré trop difficile compte tenu de la technologie mécanique de l'époque. Cependant, il développa les idées de base et, en 1943, l'Américain Howard Aiken, s'appuyant sur la technologie du XXe siècle, relais électromécaniques– a pu construire dans l’une des entreprises de l’entreprise IBM une telle voiture appelée "Mark-1". Des éléments mécaniques (roues de comptage) étaient utilisés pour représenter les nombres et des éléments électromécaniques étaient utilisés pour le contrôle.

1.2. LE DÉBUT DE L’HISTOIRE MODERNE DU GÉNIE INFORMATIQUE ÉLECTRONIQUE

Une véritable révolution informatique s’est produite en relation avec l’utilisation des appareils électroniques. Leurs travaux ont commencé à la fin des années 30 simultanément aux États-Unis, en Allemagne, en Grande-Bretagne et en URSS. À cette époque, les tubes à vide, qui étaient devenus la base technique des appareils de traitement et de stockage d'informations numériques, étaient déjà largement utilisés dans les appareils d'ingénierie radio.

L'un des plus grands mathématiciens américains, John von Neumann, a apporté une énorme contribution à la théorie et à la pratique de la création d'une technologie informatique électronique au stade initial de son développement. Les « principes de Von Neumann » sont entrés à jamais dans l’histoire des sciences. La combinaison de ces principes a donné naissance à l’architecture informatique classique (von Neumann). L'un des principes les plus importants - le principe du programme stocké - exige que le programme soit stocké dans la mémoire de la machine de la même manière que les informations originales y sont stockées. Le premier ordinateur avec un programme stocké ( EDSAC ) a été construit en Grande-Bretagne en 1949.

Dans notre pays, jusqu'aux années 70, la création d'ordinateurs s'est réalisée presque entièrement indépendamment et indépendamment du monde extérieur (et ce « monde » lui-même était presque entièrement dépendant des États-Unis). Le fait est que la technologie informatique électronique, dès le moment de sa création initiale, était considérée comme un produit stratégique top secret et que l'URSS devait la développer et la produire de manière indépendante. Peu à peu, le régime du secret s'est assoupli, mais même à la fin des années 80, notre pays ne pouvait acheter que des modèles d'ordinateurs obsolètes à l'étranger (et les ordinateurs les plus modernes et les plus puissants sont toujours développés et produits par les principaux fabricants - les États-Unis et le Japon - en secret) mode).

Le premier ordinateur domestique, MESM (« petit ordinateur électronique »), a été créé en 1951 sous la direction de Sergueï Alexandrovitch Lebedev, le plus grand concepteur d'ordinateurs soviétique. Le record parmi eux et l'un des meilleurs au monde pour l'époque était le BESM-6 (« grande machine à calculer électronique, 6ème modèle »), créée au milieu des années 60 et qui fut pendant longtemps la machine de base de la défense, de l'espace. recherche, recherche scientifique et technique en URSS. Outre les machines de la série BESM, des ordinateurs d'autres séries ont également été produits - "Minsk", "Ural", M-20, "Mir" et autres.

Avec le début de la production en série, les ordinateurs ont commencé à être divisés en générations ; la classification correspondante est décrite ci-dessous.

1.3. GÉNÉRATIONS INFORMATIQUES

Dans l'histoire de la technologie informatique, il existe une périodisation particulière des ordinateurs par génération. Elle reposait initialement sur un principe physique et technologique : une machine est affectée à une génération ou à une autre en fonction des éléments physiques qui y sont utilisés ou de la technologie de leur fabrication. Les frontières des générations dans le temps sont floues, puisqu'au même moment des voitures de niveaux complètement différents ont été produites. Lorsque des dates relatives aux générations sont données, elles désignent très probablement la période de production industrielle ; la conception a été réalisée bien plus tôt et des appareils très exotiques peuvent encore être trouvés en fonctionnement aujourd'hui.

Actuellement, le principe physique et technologique n’est pas le seul à déterminer si tel ordinateur appartient à une génération. Il faut également prendre en compte le niveau de logiciel, la vitesse et d'autres facteurs dont les principaux sont résumés dans le tableau ci-joint. 4.1.

Il faut comprendre que la répartition des ordinateurs par génération est très relative. Les premiers ordinateurs, produits avant le début des années 50, étaient des produits « à la pièce » sur lesquels les principes de base étaient élaborés ; il n’y a aucune raison particulière de les attribuer à une génération quelconque. Il n’y a pas d’unanimité pour déterminer les caractéristiques de la cinquième génération. Au milieu des années 80, on pensait que la principale caractéristique de cette (future) génération était mise en œuvre complète des principes de l’intelligence artificielle. Cette tâche s'est avérée beaucoup plus difficile qu'il n'y paraissait à l'époque, et un certain nombre d'experts abaissent la barre des exigences pour cette étape (et prétendent même qu'elle a déjà eu lieu). Il existe des analogues de ce phénomène dans l'histoire de la science : par exemple, après le lancement réussi des premières centrales nucléaires au milieu des années 50, les scientifiques ont annoncé que le lancement de centrales thermonucléaires beaucoup plus puissantes, bon marché et respectueuses de l'environnement était va arriver; cependant, ils ont sous-estimé les énormes difficultés rencontrées sur ce chemin, puisqu’il n’existe pas encore de centrales thermonucléaires.

Dans le même temps, parmi les voitures de quatrième génération, la différence est extrêmement grande, et donc dans le tableau. 4.1, la colonne correspondante est divisée en deux : A et B. Les dates indiquées dans la ligne du haut correspondent aux premières années de production de l'ordinateur. Bon nombre des concepts reflétés dans le tableau seront abordés dans les sections suivantes du manuel ; Nous nous limiterons ici à un bref commentaire.

Plus la génération est jeune, plus les caractéristiques de classification sont distinctes. Les ordinateurs des première, deuxième et troisième générations sont aujourd’hui, au mieux, des pièces de musée.

Quels ordinateurs sont de première génération ?

À première génération font généralement référence aux voitures créées au tournant des années 50. Leurs schémas utilisés les tubes à vide. Ces ordinateurs étaient des voitures énormes, inconfortables et trop chères, qui ne pouvaient être achetées que par les grandes entreprises et les gouvernements. Les lampes consommaient d’énormes quantités d’électricité et généraient beaucoup de chaleur.

L'ensemble d'instructions était petit, le circuit du dispositif arithmétique-logique et du dispositif de contrôle était assez simple et il n'y avait pratiquement aucun logiciel. Les indicateurs de capacité et de performances de la RAM étaient faibles. Des bandes perforées, des cartes perforées, des bandes magnétiques et des dispositifs d'impression ont été utilisés pour l'entrée et la sortie.

Les performances sont d'environ 10 à 20 000 opérations par seconde.

Mais ce n'est que l'aspect technique. Une autre chose est également très importante : la manière d'utiliser les ordinateurs, le style de programmation et les fonctionnalités du logiciel.

Les programmes pour ces machines ont été écrits dans le langage d'une machine spécifique. Le mathématicien qui a compilé le programme s'est assis devant le panneau de commande de la machine, a saisi et débogué les programmes et les a calculés. Le processus de débogage a pris le plus de temps.

Malgré leurs capacités limitées, ces machines ont permis d'effectuer des calculs complexes nécessaires à la prévision météorologique, à la résolution de problèmes d'énergie nucléaire, etc.

L'expérience avec les machines de première génération a montré qu'il existait un écart énorme entre le temps passé à développer des programmes et le temps de calcul.

Machines domestiques de première génération : MESM (petite machine à calculer électronique), BESM, Strela, Ural, M-20.

Quels ordinateurs appartiennent à la deuxième génération ?

Deuxième génération matériel informatique - machines conçues vers 1955-65. Ils se caractérisent par leur utilisation comme les tubes à vide, donc éléments logiques à transistors discrets. Leur RAM était construite sur des noyaux magnétiques. À cette époque, la gamme d'équipements d'entrée/sortie utilisés commençait à s'élargir et des performances élevées appareils pour travailler avec des bandes magnétiques, tambours magnétiques et premiers disques magnétiques.

Performance- jusqu'à des centaines de milliers d'opérations par seconde, capacité mémoire- jusqu'à plusieurs dizaines de milliers de mots.

La dite langues de haut niveau, dont les moyens permettent de décrire toute la séquence nécessaire d'actions informatiques sous une forme claire et facilement compréhensible.

Un programme écrit dans un langage algorithmique est incompréhensible pour un ordinateur, qui ne comprend que le langage de ses propres commandes. Par conséquent, des programmes spéciaux appelés diffuseurs, traduire un programme d'un langage de haut niveau vers un langage machine.

Un large éventail de programmes de bibliothèque est apparu pour résoudre divers problèmes mathématiques. Apparu surveiller les systèmes, contrôlant le mode de diffusion et l'exécution des programmes. Les systèmes de surveillance sont ensuite devenus des systèmes d'exploitation modernes.

Ainsi, Le système d'exploitation est une extension logicielle du dispositif de contrôle informatique.

Des systèmes d'exploitation aux capacités limitées ont déjà été créés pour certaines machines de deuxième génération.

Les voitures de deuxième génération ont été caractérisées incompatibilité logicielle, ce qui rendait difficile l’organisation de grands systèmes d’information. Ainsi, au milieu des années 60, il y a eu une transition vers la création d’ordinateurs compatibles avec les logiciels et construits sur une base technologique microélectronique.

Quelles sont les fonctionnalités des ordinateurs de troisième génération ?

Les machines de troisième génération ont été créées environ après les années 60. Étant donné que le processus de création de la technologie informatique était continu et impliquait de nombreuses personnes de différents pays confrontées à divers problèmes, il est difficile et vain d’essayer de déterminer quand une « génération » a commencé et s’est terminée. Le critère le plus important pour distinguer les machines de deuxième et troisième génération est peut-être celui basé sur le concept d’architecture.

Les machines de troisième génération sont des familles de machines possédant une seule architecture, c'est-à-dire compatible avec les logiciels. Ils utilisent des circuits intégrés, également appelés microcircuits, comme base élémentaire.

Les machines de troisième génération disposent de systèmes d’exploitation avancés. Ils ont des capacités de multi-programmation, c'est-à-dire exécution simultanée de plusieurs programmes. De nombreuses tâches de gestion de la mémoire, des périphériques et des ressources ont commencé à être prises en charge par le système d'exploitation ou par la machine elle-même.

Des exemples de machines de troisième génération sont les familles IBM-360, IBM-370, ES EVM (Unified Computer System), SM EVM (Family of Small Computers), etc.

Les performances des machines de la famille varient de plusieurs dizaines de milliers à des millions d'opérations par seconde. La capacité de la RAM atteint plusieurs centaines de milliers de mots.

Quelle est la caractéristique des voitures de quatrième génération ?

Quatrième génération est la génération actuelle de technologie informatique développée après 1970.

Le critère conceptuel le plus important permettant de distinguer ces ordinateurs des machines de troisième génération est que les machines de quatrième génération ont été conçues pour utiliser efficacement les langages modernes de haut niveau et simplifier le processus de programmation pour l'utilisateur final.

En termes de matériel, ils se caractérisent par une utilisation généralisée circuits intégrés comme base élémentaire, ainsi que la présence de périphériques de stockage à accès aléatoire à haut débit d'une capacité de plusieurs dizaines de mégaoctets.

D'un point de vue structurel, les machines de cette génération représentent les systèmes multiprocesseurs et multi-machines, travaillant sur une mémoire partagée et un champ commun de périphériques externes. Les performances peuvent atteindre plusieurs dizaines de millions d'opérations par seconde, la capacité de la RAM est d'environ 1 à 64 Mo.

Ils se caractérisent par :

  • utilisation d'ordinateurs personnels;
  • traitement de données de télécommunications;
  • réseaux informatiques;
  • utilisation généralisée des systèmes de gestion de bases de données ;
  • éléments de comportement intelligent des systèmes et dispositifs de traitement de données.

À quoi devraient ressembler les ordinateurs de cinquième génération ?

Le développement des générations ultérieures d'ordinateurs repose sur circuits intégrés à grande échelle hautement intégrés, l'utilisation de principes optoélectroniques ( lasers,holographie).

Le développement est également en route "intellectualisation" ordinateurs, éliminant la barrière entre l’homme et l’ordinateur. Les ordinateurs seront capables de percevoir des informations à partir de textes manuscrits ou imprimés, de formulaires, de voix humaine, de reconnaître l'utilisateur par la voix et de traduire d'une langue à une autre.

Dans les ordinateurs de cinquième génération, il y aura une transition qualitative du traitement données pour traitement connaissance.

L'architecture des ordinateurs de la future génération comprendra deux blocs principaux. L'un d'eux est traditionnel ordinateur. Mais désormais, il est privé de communication avec l'utilisateur. Cette connexion est réalisée par un bloc appelé terme "interface intelligente". Sa tâche est de comprendre un texte écrit en langage naturel et contenant l'état du problème, et de le traduire en un programme informatique fonctionnel.

Le problème de la décentralisation de l'informatique sera également résolu à l'aide de réseaux informatiques, à la fois de grande taille et situés à une distance considérable les uns des autres, et d'ordinateurs miniatures situés sur une seule puce semi-conductrice.

Générations informatiques

Indice

Générations informatiques

D'abord

1951-1954

Deuxième

1958-1960

Troisième

1965-1966

Quatrième

Cinquième

1976-1979

1985-?

Base d'élément de processeur

Électronique

les lampes

Transistors

Circuits intégrés

(EST)

Grands circuits intégrés (LSI)

Circuits intégrés super grands

(VLSI)

Optoélectronique

Cryoélectronique

Base d'éléments RAM

Tubes à rayons cathodiques

Noyaux de ferrite

Ferrite

noyaux

BIS

VLSI

VLSI

Capacité RAM maximale, octets

10 2

10 1

10 4

10 5

10 7

10 8 (?)

Vitesse maximale du processeur (op/s)

10 4

10 6

10 7

10 8

10 9

Multitraitement

10 12 ,

Multitraitement

Langages de programmation

Langage machine

Assembleur

Langages procéduraux de haut niveau (HLP)

Nouveau

langages procéduraux

Langages de programmation non procéduraux

Nouvelles centrales nucléaires sans procédures

Moyens de communication entre l'utilisateur et l'ordinateur

Panneau de contrôle et cartes perforées

Cartes perforées et bandes perforées

Terminal alphanumérique

Écran graphique monochrome, clavier

Écran couleur + graphique, clavier, souris, etc.

L'homme ancien avait son propre instrument de comptage - dix doigts sur ses mains. L'homme a plié ses doigts - les a ajoutés, les a redressés - soustraits. Et l'homme devina : pour compter, vous pouvez utiliser tout ce qui vous tombe sous la main : des cailloux, des bâtons, des os. Ensuite, ils ont commencé à faire des nœuds sur la corde et à faire des encoches sur des bâtons et des planches (Fig. 1.1).

Riz. 1.1. Nodules (UN) et des encoches sur les tablettes ( b)

Période de boulier. Un boulier (gr. abax - planche) était une planche recouverte d'une couche de poussière, sur laquelle des lignes étaient tracées avec un bâton pointu et certains objets étaient placés dans les colonnes résultantes selon le principe de position. Aux V-IV siècles. avant JC e. Les récits connus les plus anciens ont été créés - le « tableau Salamin » (du nom de l'île de Salamine dans la mer Égée), appelé « boulier » par les Grecs et l'Europe occidentale. Dans la Rome antique, le boulier est apparu aux Ve-VIe siècles. n. e. et s'appelait calculi ou abakuli. Le boulier était en bronze, pierre, ivoire et verre coloré. Un boulier romain en bronze a survécu à ce jour, sur lequel des cailloux se déplaçaient dans des rainures découpées verticalement (Fig. 1.2).

Riz. 1.2.

Aux XVe-XVIe siècles. En Europe, le comptage était courant sur des lignes ou sur des tables de comptage sur lesquelles étaient placés des jetons.

Au 16ème siècle Un boulier russe avec un système de nombres décimaux est apparu. En 1828, le général de division F. M. Svobodskoy a exposé un dispositif original composé de nombreux comptes reliés dans un cadre commun (Fig. 1.3). Toutes les opérations étaient réduites aux actions d’addition et de soustraction.

Riz. 1.3.

Période des appareils mécaniques. Cette période s'étend du début du XVIIe jusqu'à la fin du XIXe siècle.

En 1623, Wilhelm Schickard décrit la conception d'une machine à calculer dans laquelle les opérations d'addition et de soustraction étaient mécanisées. En 1642, le mécanicien français Blaise Pascal a conçu la première machine à calculer mécanique - « Pascalina » (Fig. 1.4).

En 1673, le scientifique allemand Goftrid Leibniz créa la première machine informatique mécanique, exécutant

Riz. 1.4.

Montrez quatre opérations arithmétiques (addition, soustraction, multiplication et division). En 1770, en Lituanie, E. Jacobson a créé une machine de sommation qui déterminait les quotients et était capable de travailler avec des nombres à cinq chiffres.

En 1801 - 1804 L'inventeur français J.M. Jacquard a été le premier à utiliser des cartes perforées pour contrôler un métier à tisser automatique.

En 1823, le scientifique anglais Charles Babbage développa un projet de « moteur de différence », qui anticipait la machine automatique moderne contrôlée par programme (Fig. 1.5).

En 1890, un habitant de Saint-Pétersbourg, Vilgodt Odner, invente une machine à calculer et lance sa production. En 1914, rien qu'en Russie, il y avait plus de 22 000 machines à calculer Odner. Dans le premier quart du 20e siècle. ces machines à additionner étaient les seules machines mathématiques largement utilisées dans divers domaines de l'activité humaine (Fig. 1.6).


Riz. 1.5. La machine de Babbage Fig. 1.6. Totaliseur

Période informatique. Cette période a commencé en 1946 et se poursuit aujourd'hui. Il se caractérise par la combinaison des progrès dans le domaine de l’électronique avec de nouveaux principes de construction d’ordinateurs.

En 1946, sous la direction de J. Mauchly et J. Eckert, le premier ordinateur fut créé aux États-Unis - ENIAC (Fig. 1.7). Il avait les caractéristiques suivantes : longueur 30 m, hauteur 6 m, poids 35 tonnes, 18 000 tubes à vide, 1 500 relais, 100 000 résistances et condensateurs, 3 500 op/s. Dans le même temps, ces scientifiques ont commencé à travailler sur une nouvelle machine - "EDVAC" (EDVAC - Electronic


Riz. 1.7.

Ordinateur automatique à variable discrète - un ordinateur automatique électronique à variables discrètes), dont le programme devait être stocké dans la mémoire de l'ordinateur. Il était censé utiliser les tubes à mercure utilisés dans les radars comme mémoire interne.

En 1949, l'ordinateur EDSAC avec un programme stocké en mémoire a été construit en Grande-Bretagne.

L’apparition des premiers ordinateurs fait encore polémique. Ainsi, les Allemands considèrent le premier ordinateur comme une machine pour les équipages d'artillerie, créée par Konrad Zuse en 1941, même s'il fonctionnait sur des relais électriques et n'était donc pas électronique, mais électromécanique. Pour les Américains, il s'agit d'ENIAC (1946, J. Mauchly et J. Eckert). Les Bulgares considèrent que l'inventeur de l'ordinateur est John (Ivan) Atanasov, qui a conçu aux États-Unis en 1941 une machine pour résoudre des systèmes d'équations algébriques.

Les Britanniques, après avoir fouillé dans des archives secrètes, ont déclaré que le premier ordinateur électronique avait été créé en 1943 en Angleterre et était destiné à déchiffrer les négociations du haut commandement allemand. Cet équipement était considéré comme si secret qu'après la guerre, il fut détruit sur ordre de Churchill et les plans furent brûlés pour éviter que le secret ne tombe entre de mauvaises mains.

Les Allemands entretenaient une correspondance quotidienne secrète à l'aide de machines de cryptage Enigma (latin : enigma - énigme). Au début de la Seconde Guerre mondiale, les Britanniques savaient déjà comment fonctionnait Enigma et cherchaient des moyens de déchiffrer ses messages, mais les Allemands disposaient d'un autre système de cryptage conçu uniquement pour les messages les plus importants. Il s'agissait d'une machine Schlusselzusatz-40 fabriquée par Lorenz en petit nombre d'exemplaires (le nom se traduit par « attachement chiffré »). Extérieurement, c'était un hybride d'un télétype ordinaire et d'une caisse enregistreuse mécanique. Le télétype traduisait le texte tapé au clavier en une séquence d'impulsions électriques et de pauses entre elles (chaque lettre correspond à un ensemble de cinq impulsions et « espaces vides »). La « caisse enregistreuse » faisait tourner deux séries de cinq engrenages, qui ajoutaient de manière aléatoire deux autres séries de cinq impulsions et sautaient à chaque lettre. Les roues avaient un nombre différent de dents, et ce nombre pouvait être modifié : les dents étaient rendues mobiles, elles pouvaient être déplacées sur le côté ou mises en place. Il y avait deux autres roues « motrices », chacune faisant tourner son propre ensemble d’engrenages.

Au début de la transmission du message crypté, l'opérateur radio informait le destinataire de la position initiale des roues et du nombre de dents de chacune d'elles. Ces données de réglage ont été modifiées avant chaque transmission. En plaçant les mêmes jeux de roues dans la même position sur sa machine, l'opérateur radio récepteur s'assurait que les lettres supplémentaires étaient automatiquement soustraites du texte et le télétype imprimait le message original.

En 1943, le mathématicien Max Newman développe la machine électronique Colossus en Angleterre. Les roues de la voiture étaient modélisées par 12 groupes de tubes électroniques - les thyratrons. En passant automatiquement par différentes options pour les états de chaque thyratron et leurs combinaisons (le thyratron peut être dans deux états - laisser passer ou ne pas laisser passer le courant électrique, c'est-à-dire donner une impulsion ou une pause), "Colossus" a compris l'initiale réglage des engrenages de la machine allemande. La première version du « Colossus » disposait de 1 500 thyratrons et la seconde, mise en service en juin 1944, de 2 500. En une heure, la machine « a avalé » 48 km de ruban perforé, sur lesquels les opérateurs ont rempli des rangées de thyratrons et de thyratrons. les zéros des messages allemands ; 5 000 lettres étaient traitées par seconde. Cet ordinateur avait une mémoire basée sur la charge et la décharge de condensateurs. Il permettait de lire la correspondance top-secrète d'Hitler, Kesselring, Rommel, etc.

Note. Un ordinateur moderne résout la position initiale des roues du Schlusselzusatz-40 deux fois plus lentement que le Colossus, donc un problème qui en 1943 a été résolu en 15 minutes prend 18 heures au Repyit PC ! Le fait est que les ordinateurs modernes sont conçus pour être universels, conçus pour effectuer une grande variété de tâches et ne peuvent pas toujours rivaliser avec les ordinateurs anciens qui ne pouvaient effectuer qu'une seule action, mais très rapidement.

Le premier ordinateur électronique domestique, MESM, a été développé en 1950. Il contenait plus de 6 000 tubes à vide. Cette génération d'ordinateurs comprend : « BESM-1 », « M-1 », « M-2 », « M-3 », « Strela », « Minsk-1 », « Ural-1 », « Ural-2 ». ", "Ural-3", "M-20", "Setun", "BESM-2", "Hrazdan" (tableau 1.1). Leur vitesse ne dépassait pas 2 à 3 000 op/s, la capacité de la RAM était de 2 Ko ou 2 048 mots machine (1 K = 1 024) d'une longueur de 48 caractères binaires.

Tableau 1.1. Caractéristiques des ordinateurs domestiques

Personnages

Première génération

Deuxième génération

Ciblage

Longueur ma-

pneu

va (chiffres binaires)

Vitesse

Noyau de ferrite

Environ la moitié du volume total de données des systèmes d'information mondiaux est stockée sur des ordinateurs centraux. À ces fins, la société 1VM remonte aux années 1960. a commencé à produire des ordinateurs 1ВМ/360, 1ВМ/370 (Fig. 1.8), qui se sont répandus dans le monde.

Avec l'avènement des premiers ordinateurs en 1950, l'idée d'utiliser la technologie informatique pour contrôler les processus technologiques est née. Le contrôle informatisé vous permet de maintenir les paramètres du processus dans un mode proche de l'optimal. En conséquence, la consommation de matériaux et d'énergie est réduite, la productivité et la qualité sont augmentées et une restructuration rapide des équipements pour produire un type de produit différent est assurée.


Riz. 1.8.

Le pionnier de l'utilisation industrielle des ordinateurs de contrôle à l'étranger fut la société Digital Equipment Corp. (DEC), qui a lancé en 1963 un ordinateur spécialisé « PDP-5 » pour le contrôle des réacteurs nucléaires. Les données initiales étaient des mesures obtenues à la suite d'une conversion analogique-numérique, dont la précision était de 10 à 11 chiffres binaires. En 1965, DEC a lancé le premier ordinateur miniature «PDP-8», de la taille d'un réfrigérateur et coûtant 20 000 dollars, dont la base d'éléments était utilisée circuits intégrés.

Avant l’avènement des circuits intégrés, les transistors étaient fabriqués individuellement et devaient être connectés et soudés à la main lors de l’assemblage des circuits. En 1958, le scientifique américain Jack Kilby a découvert comment créer plusieurs transistors sur une plaquette semi-conductrice. En 1959, Robert Noyce (le futur fondateur d'Intel) a inventé une méthode plus avancée permettant de créer des transistors et toutes les connexions nécessaires entre eux sur une seule plaque. Les circuits électroniques résultants sont devenus connus sous le nom de circuits intégrés, ou puces. Par la suite, le nombre de transistors pouvant être placés par unité de surface du circuit intégré a environ doublé chaque année. En 1968, Burroughs a lancé le premier ordinateur à circuits intégrés et en 1970, Intel a commencé à vendre des circuits intégrés à mémoire.

En 1970, une autre étape a été franchie sur la voie d'un ordinateur personnel : Marchian Edward Hoff d'Intel a conçu un circuit intégré similaire dans ses fonctions au processeur central d'un ordinateur central. C'est ainsi qu'est apparu le premier microprocesseur Intel-4004, mis en vente fin 1970. Bien entendu, les capacités de l'Intel-4004 étaient beaucoup plus modestes que celles du processeur central d'un ordinateur central - il fonctionnait beaucoup plus lentement et ne pouvait traiter que 4 bits de informations simultanément (les processeurs grand public traitaient 16 ou 32 bits simultanément). En 1973, Intel a lancé le microprocesseur 8 bits Intel-8008, et en 1974, sa version améliorée Intel-8080, qui a fonctionné jusqu'à la fin des années 1970. était la norme pour l’industrie de la micro-informatique (tableau 1.2).

Tableau 1.2. Générations d'ordinateurs et leurs principales caractéristiques

Génération

Quatrième (depuis 1975)

Base d'élément informatique

Tubes électroniques, relais

Transistors,

paramètres

Circuits intégrés ultra-larges (VLSI)

Performances du processeur

Jusqu'à 3 10 5 opérations/s

Jusqu'à 3 10 6 opérations/s

Jusqu'à 3 10 7 opérations/s

3 10 7 opérations/s

Type de mémoire vive (RAM)

Déclencheurs,

ferrite

noyaux

Miniature

ferrite

noyaux

Semi-conducteur sur

Semi-conducteur sur

Plus de 16 Mo

Types caractéristiques d'ordinateurs

générations

Petit, moyen, grand, spécial

mini- et micro-ordinateurs

Supercalculateur,

PC, spécial, général, réseaux informatiques

Modèles de génération typiques

IBM 7090, BESM-6

BH-2, 1VM RS/XT/AT, RB/2, Sgau, réseaux

Caractéristique

logiciel

sécurité

Codes, autocodes, assembleurs

Langages de programmation, répartiteurs, systèmes de contrôle automatisés, systèmes de contrôle de processus

PPP, SGBD, CAO, Javascript, opérationnel

DB, ES, systèmes de programmation parallèle

Les générations d'ordinateurs sont déterminées par la base des éléments (lampes, semi-conducteurs, microcircuits à différents degrés d'intégration (Fig. 1.9)), l'architecture et les capacités informatiques (Tableau 1.3).

Tableau 1.3. Caractéristiques des générations informatiques

Génération

Particularités

Première génération (1946-1954)

Application de la technologie des tubes à vide, utilisation de systèmes à mémoire sur lignes à retard au mercure, tambours magnétiques, tubes cathodiques. Des bandes perforées et des cartes perforées, des bandes magnétiques et des dispositifs d'impression ont été utilisés pour l'entrée et la sortie des données.

IIe génération (1955-1964)

Utilisation de transistors. Les ordinateurs sont devenus plus fiables et leurs performances ont augmenté. Avec l'avènement de la mémoire sur noyaux magnétiques, son cycle de fonctionnement a été réduit à des dizaines de microsecondes. Le principe principal de la structure est la centralisation. Des appareils hautes performances pour travailler avec des bandes magnétiques et des dispositifs de mémoire à disque magnétique sont apparus

IIIème génération (1965-1974)

Les ordinateurs ont été conçus sur la base de circuits intégrés de faible degré d'intégration (MIS de 10 à 100 composants par puce) et de degré d'intégration moyen (SIS de 10 à 1000 composants par puce). A la fin des années 1960. des mini-ordinateurs sont apparus. En 1971, le premier microprocesseur apparaît

IV génération (depuis 1975)

L'utilisation de grands circuits intégrés (LSI de 1 000 à 100 000 composants par puce) et de circuits intégrés ultra-grands (VLSI de 100 000 à 10 millions de composants par puce) lors de la création d'ordinateurs. L'accent principal lors de la création d'ordinateurs est mis sur leur « intelligence », ainsi que sur une architecture axée sur le traitement des connaissances.


un B C

Riz. 1.9. Base d'éléments informatiques : UN - lampe électrique; b- transistor;

V- circuit intégré

Le premier micro-ordinateur était l'Altair-8800, créé en 1975 par une petite entreprise d'Albuquerque (Nouveau-Mexique) sur la base du microprocesseur Intel-8080. Fin 1975, Paul Allen et Bill Gates (futurs fondateurs de Microsoft) créent un interpréteur de langage Basic pour l'ordinateur Altair, qui permet aux utilisateurs d'écrire des programmes tout simplement.

Par la suite, les ordinateurs TRS-80 RS, RET RS et Apple sont apparus (Fig. 1.10).

Riz. 1.10.

L'industrie nationale a produit des systèmes compatibles DEC (systèmes informatiques interactifs DVK-1, ..., DVK-4 basés sur les ordinateurs Elektronika MS-101, Elektronika 85, Elektronika 32) et compatibles IBM PC (EC 1840 - EC 1842, EC 1845 , EC 1849, EC 1861, Iskra 4861), dont les caractéristiques étaient nettement inférieures à celles ci-dessus.

Récemment, les ordinateurs personnels produits par des sociétés américaines sont devenus largement connus : Compaq Computer, Apple (Macintosh), Hewlett Packard, Dell, DEC ; Entreprises britanniques : Spectrum, Amstard ; par la société française Micra ; par la société italienne Olivetty ; Entreprises japonaises : Toshiba, Panasonic, Partner.

Les ordinateurs personnels d'IBM (International Business Machines Corporation) sont actuellement les plus populaires.

En 1983, l'ordinateur IBM PC XT avec disque dur intégré est apparu, et en 1985, l'ordinateur IBM PC AT basé sur le processeur Intel 80286 16 bits (Fig. 1.11).

En 1989, le processeur Intel 80486 a été développé avec les modifications 486SX, 486DX, 486DX2 et 486DX4. Les fréquences d'horloge des processeurs 486DX, selon le modèle, sont de 33, 66 et 100 MHz.


La nouvelle famille de modèles de PC d'IBM s'appelle PS/2 (Personal System 2). Les premiers modèles de la famille PS/2 utilisaient le processeur Intel 80286 et copiaient en fait l'AT PC, mais sur la base d'une architecture différente.

En 1993, des processeurs Pentium avec des fréquences d'horloge de 60 et 66 MHz sont apparus.

En 1994, Intel a commencé à produire des processeurs Pentium avec des fréquences d'horloge de 75, 90 et 100 MHz. En 1996, la vitesse d'horloge des processeurs Pentium est passée à 150, 166 et 200 MHz (Fig. 1.12).


Système

Manipulateur de type souris

Riz. 1.12. Configuration informatique multimédia

En 1997, Intel a lancé un nouveau processeur Pentium MMX avec des fréquences d'horloge de 166 et 200 MHz. L'abréviation MMX signifiait que ce processeur était optimisé pour travailler avec des informations graphiques et vidéo. En 1998, Intel a annoncé la sortie du processeur Celeron avec une fréquence d'horloge de 266 MHz.

Depuis 1998, Intel a annoncé une version du processeur Pentium® II Heop™ avec une fréquence d'horloge de 450 MHz (tableau 1.4).

Tableau 1.4. Ordinateurs IBM

ordinateur

CPU

Fréquence d'horloge, MHz

opérationnel

Pendant longtemps, les fabricants de processeurs – principalement Intel et AMD – ont augmenté leur vitesse d'horloge pour améliorer les performances du processeur. Cependant, à des fréquences d'horloge supérieures à 3,8 GHz, les puces surchauffent et vous pouvez oublier les avantages. De nouvelles idées et technologies étaient nécessaires, dont l'idée de créer puces multicœurs. Dans une telle puce, deux processeurs ou plus fonctionnent en parallèle, ce qui offre de meilleures performances à une fréquence d'horloge inférieure. Le programme actuellement en cours répartit les tâches de traitement des données entre les deux cœurs. Ceci est plus efficace lorsque le système d'exploitation et les programmes d'application sont conçus pour fonctionner en parallèle, comme pour le traitement graphique.

L'architecture multicœur est une variante de l'architecture de processeur qui place deux ou plusieurs cœurs « d'exécution » ou de calcul Pentium® sur un seul processeur. Un processeur multicœur est inséré dans le socket du processeur, mais le système d'exploitation traite chacun de ses cœurs d'exécution comme un processeur logique distinct avec toutes les ressources d'exécution correspondantes (Figure 1.13).

Cette implémentation de l'architecture interne du processeur est basée sur la stratégie « diviser pour mieux régner ». En d'autres termes, la section


Riz. 1.13.

En divisant le travail de calcul effectué dans les microprocesseurs traditionnels par un seul cœur Pentium entre plusieurs cœurs d'exécution Pentium, un processeur multicœur peut effectuer plus de travail dans un intervalle de temps donné. Pour ce faire, le logiciel doit prendre en charge la répartition de la charge entre plusieurs cœurs d'exécution. Cette fonctionnalité est appelée parallélisme au niveau du thread, ou l'organisation du traitement threadé, et les applications et systèmes d'exploitation qui le prennent en charge (tels que Microsoft Windows XP) sont appelés multithread.

Le multicœur affecte également le fonctionnement simultané des applications standard. Par exemple, un cœur de processeur peut être responsable d'un programme exécuté en arrière-plan, tandis qu'un programme antivirus occupe les ressources du deuxième cœur. En pratique, les processeurs dual-core n'effectuent pas de calculs deux fois plus vite que les processeurs mono-core : bien que le gain de performances soit important, il dépend du type d'application.

Les premiers processeurs dual-core sont apparus sur le marché en 2005. Au fil du temps, de plus en plus de successeurs sont apparus. Par conséquent, le prix des « anciens » processeurs dual-core a sérieusement baissé aujourd’hui. On les trouve dans les ordinateurs à partir de 600 $ et les ordinateurs portables à partir de 900 $. Les ordinateurs équipés de puces double cœur modernes coûtent environ 100 $ de plus que les modèles équipés de puces « plus anciennes ». L'un des principaux développeurs de processeurs multicœurs est Intel Corporation.

Avant l’avènement des puces double cœur, les fabricants proposaient des processeurs monocœur capables d’exécuter plusieurs programmes en parallèle. Certains processeurs Pentium de la série 4 disposaient d'une fonction Hyper-Threading qui renvoyait une valeur d'octet contenant les identifiants logiques et physiques du processus en cours. Il peut être considéré comme le prédécesseur de l’architecture Dual-Core, composée de deux cœurs d’exécution mobiles optimisés. Dual-Core signifie que pendant qu'un cœur est occupé à exécuter une application ou, par exemple, à vérifier l'activité virale, l'autre cœur sera disponible pour effectuer d'autres tâches, par exemple, l'utilisateur pourra surfer sur Internet ou travailler avec une feuille de calcul. Bien que le processeur n'ait qu'un seul cœur physique, la puce a été conçue de manière à pouvoir exécuter deux programmes simultanément (Figure 1.14).

Panneau de contrôle

QNX Neutrino RTOS (une copie)

Interface de ligne de commande (noyaux 0 et 1)

Routage (cœurs 0 et 1)

Gestion, Administration et Maintenance (Cores 0 et 1)

Matériel de tableau de bord

Surveillance du tableau de bord (cœurs 0 et 1)

Riz. 1.14. Schéma d'utilisation du multitraitement

dans le panneau de contrôle

Le système d'exploitation reconnaît une telle puce comme deux processeurs distincts. Les processeurs conventionnels traitent 32 bits par cycle d'horloge. Les puces les plus récentes parviennent à traiter deux fois plus de données en un seul cycle d'horloge, soit 64 bits. Cet avantage est particulièrement visible lors du traitement de grandes quantités de données (par exemple lors du traitement de photographies). Mais pour pouvoir l'utiliser, le système d'exploitation et les applications doivent prendre en charge le mode de traitement 64 bits.

Sous les versions 64 bits spécialement conçues de Windows XP et Windows Vista, des programmes 32 et 64 bits sont lancés, en fonction des besoins.

Le développement rapide de l'informatique numérique (CT) et l'émergence d'une science sur les principes de sa construction et de sa conception ont commencé dans les années 40 du 20e siècle, lorsque l'électronique et la microélectronique sont devenues la base technique de l'informatique, et les réalisations dans le domaine des ordinateurs est devenu la base du développement de l’architecture informatique (anciennement appelée intelligence artificielle).

Jusqu'à cette époque, pendant près de 500 ans, le VT était réduit aux appareils les plus simples permettant d'effectuer des opérations arithmétiques sur des nombres. La base de presque tous les appareils inventés au cours des 5 siècles était une roue dentée conçue pour fixer 10 chiffres du système numérique décimal. La première esquisse au monde d'un dispositif d'addition décimale de treize bits basé sur de telles roues appartient à Léonard de Vinci.

Le premier appareil informatique numérique mécanique réellement mis en œuvre était la « Pascalina » du grand scientifique français Blaise Pascal, qui était un appareil à 6 (ou 8) chiffres, sur des roues dentées, conçu pour additionner et soustraire des nombres décimaux (1642).

30 ans après Pascalina, "l'instrument arithmétique" de Gottfried Wilhelm Leibniz est apparu en 1673 - un dispositif décimal à douze chiffres pour effectuer des opérations arithmétiques, y compris la multiplication et la division.

À la fin du XVIIIe siècle, deux événements se sont produits en France, qui ont eu une importance fondamentale pour le développement ultérieur de la technologie informatique numérique. Ces événements comprennent :

 L'invention par Joseph Jacquard du contrôle programmatique d'une machine à tisser à l'aide de cartes perforées ;

 développement par Gaspard de Prony d'une technologie informatique qui divisait les calculs numériques en trois étapes : développement d'une méthode numérique, compilation d'un programme pour une séquence d'opérations arithmétiques, réalisation des calculs proprement dits par opérations arithmétiques sur des nombres conformément aux compilés programme.

Ces innovations ont ensuite été utilisées par l'Anglais Charles Babbage, qui a franchi une étape qualitativement nouvelle dans le développement des moyens VT - passage de l'exécution manuelle à l'exécution automatique des calculs selon un programme compilé. Il a développé un projet pour le moteur analytique - un ordinateur numérique mécanique universel avec contrôle par programme (1830-1846). La machine se composait de cinq appareils : arithmétique (AU) ; stockage (mémoire); gestion (UU); entrée (UVV); sortie (UW).

Ce sont ces appareils qui constituèrent les premiers ordinateurs apparus 100 ans plus tard. L'unité de contrôle a été construite sur la base de roues dentées et il a été proposé d'y implémenter une mémoire (pour des milliers de nombres de 50 bits). Des cartes perforées étaient utilisées pour saisir des données et des programmes. La vitesse estimée des calculs est l'addition et la soustraction en 1 seconde, la multiplication et la division en 1 minute. En plus des opérations arithmétiques, il existait une commande de saut conditionnel.

Il convient de noter que même si des composants individuels de la machine ont été créés, la machine entière n'a pas pu être créée en raison de son encombrement. Cela nécessiterait à lui seul plus de 50 000 roues dentées. L'inventeur prévoyait d'utiliser une machine à vapeur pour alimenter son moteur analytique.

En 1870 (un an avant la mort de Babbage), le mathématicien anglais Jevons conçut la première « machine logique » au monde, permettant de mécaniser les conclusions logiques les plus simples.

Les créateurs de machines logiques dans la Russie pré-révolutionnaire étaient Pavel Dmitrievich Khrouchtchev (1849-1909) et Alexander Nikolaevich Shchukarev (1884-1936), qui travaillaient dans des établissements d'enseignement en Ukraine.

L'idée brillante de Babbage a été réalisée par le scientifique américain Howard Aiken, qui a créé le premier ordinateur mécanique à relais aux États-Unis en 1944. Ses principaux blocs - arithmétique et mémoire - étaient exécutés sur des roues dentées. Si Babbage était bien en avance sur son temps, alors Aiken, utilisant les mêmes engrenages, a utilisé techniquement des solutions obsolètes lors de la mise en œuvre de l'idée de Babbage.

Il convient de noter que dix ans plus tôt, en 1934, l'étudiant allemand Konrad Zuse, travaillant sur son projet de fin d'études, décida de réaliser un ordinateur numérique avec contrôle par programme. Cette machine a été la première au monde à utiliser le système de nombres binaires. En 1937, la machine Z1 effectuait ses premiers calculs. Il s'agissait d'un système binaire à virgule flottante de 22 bits avec une mémoire de 64 nombres et fonctionnant sur une base purement mécanique (levier).

En 1937, lorsque la première machine binaire mécanique Z1 commença à fonctionner, John Atanasov (un Bulgare de naissance qui vivait aux États-Unis) commença à développer un ordinateur spécialisé utilisant des tubes à vide (300 tubes) pour la première fois au monde.

En 1942-43, l'ordinateur Colossus est créé en Angleterre (avec la participation d'Alan Turing). Cette machine, composée de 2000 tubes à vide, était destinée à déchiffrer les radiogrammes de la Wehrmacht allemande. Étant donné que les travaux de Zuse et Turing étaient secrets, peu de gens les connaissaient à cette époque et ils n'avaient aucune résonance dans le monde.

Ce n'est qu'en 1946 que des informations sont apparues sur l'ordinateur ENIAC (intégrateur et ordinateur électronique numérique), créé aux États-Unis par D. Mauchly et P. Eckert, utilisant la technologie électronique. La machine utilisait 18 000 tubes à vide et effectuait environ 3 000 opérations par seconde. Cependant, la machine restait décimale et sa mémoire n'était que de 20 mots. Les programmes étaient stockés en dehors de la RAM.

Presque simultanément, en 1949-52. scientifiques d'Angleterre, d'Union soviétique et des États-Unis (Maurice Wilkes, ordinateur EDSAC, 1949 ; Sergei Lebedev, ordinateur MESM, 1951 ; Isaac Brook, ordinateur M1, 1952 ; John Mauchly et Presper Eckert, ordinateur John von Neumann "ADVAK", 1952 ), a créé un ordinateur avec un programme stocké.

En général, il y a cinq générations ORDINATEUR.

Première génération (1945-1954 ) caractérisé par l'apparition de la technologie des tubes électroniques. C'est l'ère de l'émergence de la technologie informatique. La plupart des machines de première génération étaient des dispositifs expérimentaux et étaient construites pour tester certains principes théoriques. Le poids et la taille de ces ordinateurs étaient tels qu'ils nécessitaient souvent des bâtiments séparés.

Les fondateurs de l'informatique sont à juste titre considérés comme Claude Shannon, le créateur de la théorie de l'information, Alan Turing, un mathématicien qui a développé la théorie des programmes et des algorithmes, et John von Neumann, l'auteur de la conception des dispositifs informatiques, qui sous-tend toujours la plupart des ordinateurs. Au cours de ces mêmes années, une autre nouvelle science liée à l'informatique est apparue - la cybernétique - la science de la gestion en tant que l'un des principaux processus d'information. Le fondateur de la cybernétique est le mathématicien américain Norbert Wiener.

Dans la deuxième génération (1955-1964) Des transistors ont été utilisés à la place des tubes à vide, et des noyaux magnétiques et des tambours magnétiques - lointains ancêtres des disques durs modernes - ont été utilisés comme dispositifs de mémoire. Tout cela a permis de réduire fortement la taille et le coût des ordinateurs, qui ont alors commencé à être construits pour la première fois.

Mais les principales réalisations de cette époque appartiennent au domaine des programmes. C'est dans la deuxième génération qu'est apparu pour la première fois ce qu'on appelle aujourd'hui un système d'exploitation. Parallèlement, les premiers langages de haut niveau sont développés - Fortran, Algol, Cobol. Ces deux améliorations importantes ont rendu l’écriture de programmes informatiques beaucoup plus facile et plus rapide.

Dans le même temps, le champ des applications informatiques s’est élargi. Désormais, les scientifiques ne sont plus les seuls à pouvoir compter sur l'accès à la technologie informatique, car les ordinateurs sont utilisés pour la planification et la gestion, et certaines grandes entreprises ont même commencé à informatiser leur comptabilité, anticipant ce processus de vingt ans.

DANS troisième génération (1965-1974) Pour la première fois, des circuits intégrés ont commencé à être utilisés - des dispositifs entiers et des assemblages de dizaines et de centaines de transistors, réalisés sur un seul cristal semi-conducteur (microcircuits). Dans le même temps, est apparue la mémoire à semi-conducteurs, qui est encore utilisée dans les ordinateurs personnels comme mémoire opérationnelle.

Durant ces années, la production informatique acquiert une ampleur industrielle. IBM a été le premier à vendre une série d'ordinateurs entièrement compatibles les uns avec les autres, du plus petit, de la taille d'un petit placard (ils n'avaient jamais rien fait de plus petit à l'époque), aux modèles les plus puissants et les plus chers. La plus répandue à cette époque était la famille System/360 d'IBM, sur la base de laquelle la série d'ordinateurs ES a été développée en URSS. Au début des années 60, les premiers mini-ordinateurs sont apparus : de petits ordinateurs de faible consommation abordables pour les petites entreprises ou les laboratoires. Les mini-ordinateurs représentaient le premier pas vers les ordinateurs personnels, dont les prototypes n'ont été commercialisés qu'au milieu des années 70.

Pendant ce temps, le nombre d'éléments et de connexions entre eux qui s'intègrent dans un seul microcircuit ne cessait de croître et, dans les années 70, les circuits intégrés contenaient déjà des milliers de transistors.

En 1971, Intel lance le premier microprocesseur, destiné aux calculatrices de bureau qui viennent d'apparaître. Cette invention était destinée à créer une véritable révolution au cours de la prochaine décennie. Le microprocesseur est le composant principal d'un ordinateur personnel moderne.

Au tournant des années 60 et 70 du XXe siècle (1969), le premier réseau informatique mondial ARPA, prototype de l'Internet moderne, est né. Dans la même année 1969, le système d'exploitation Unix et le langage de programmation C sont apparus simultanément, ce qui a eu un impact énorme sur le monde du logiciel et conserve toujours sa position de leader.

Quatrième génération (1975 – 1985) caractérisé par de moins en moins d’innovations fondamentales en informatique. Les progrès se situent principalement dans la voie du développement de ce qui a déjà été inventé et imaginé, principalement par l'augmentation de la puissance et la miniaturisation de la base des éléments et des ordinateurs eux-mêmes.

L’innovation la plus importante de la quatrième génération est l’apparition des ordinateurs personnels au début des années 80. Grâce aux ordinateurs personnels, la technologie informatique devient véritablement répandue et accessible à tous. Malgré le fait que les ordinateurs personnels et les mini-ordinateurs sont encore à la traîne en termes de puissance de calcul par rapport aux grandes machines, la part du lion des innovations, telles que les interfaces utilisateur graphiques, les nouveaux périphériques et les réseaux mondiaux, est associée à l'émergence et au développement de cette technologie particulière.

Les grands ordinateurs et supercalculateurs continuent bien entendu à se développer. Mais aujourd’hui, ils ne dominent plus le domaine informatique comme ils le faisaient autrefois.

Certaines caractéristiques de la technologie informatique de quatre générations sont présentées dans le tableau. 1.1.

Tableau 1.1

Générations d'informatique

Génération

Élément principal

E-mail lampe

Transistor

Circuit intégré

Grand circuit intégré (microprocesseur)

Nombre d'ordinateurs

dans le monde (pièces)

Des dizaines de milliers

Des millions

Dimensions de l'ordinateur

Beaucoup moins

micro-ordinateur

Opérations de performances (conditionnelles)/s

Plusieurs unités

Quelques dizaines

Plusieurs milliers

Plusieurs dizaines de milliers

Support de stockage

Carte,

Ruban perforé

Magnétique

Cinquième génération (1986 à aujourd'hui) est largement déterminé par les résultats des travaux du Comité japonais pour la recherche scientifique dans le domaine des ordinateurs, publiés en 1981. Selon ce projet, les ordinateurs et systèmes informatiques de cinquième génération, outre des performances et une fiabilité élevées à moindre coût grâce aux technologies les plus récentes, doivent satisfaire aux exigences fonctionnelles qualitativement nouvelles suivantes :

 assurer la facilité d'utilisation des ordinateurs en mettant en œuvre des systèmes d'entrée/sortie vocale, ainsi qu'un traitement interactif de l'information utilisant les langues naturelles ;

 offrir la possibilité d'apprentissage, de constructions associatives et de conclusions logiques ;

 simplifier le processus de création de logiciels en automatisant la synthèse des programmes selon les spécifications des exigences originales en langues naturelles ;

 améliorer les caractéristiques de base et les performances de la technologie informatique pour répondre à divers problèmes sociaux, améliorer le rapport coût-bénéfice, la vitesse, la légèreté et la compacité des ordinateurs ;

 fournir une variété d'équipements informatiques, une grande adaptabilité aux applications et une fiabilité de fonctionnement.

Actuellement, des travaux intensifs sont en cours pour créer des ordinateurs optoélectroniques dotés d'un parallélisme massif et d'une structure neuronale, qui constituent un réseau distribué d'un grand nombre (des dizaines de milliers) de microprocesseurs simples qui modélisent l'architecture des systèmes biologiques neuronaux.

Appareils et appareils informatiques de l'Antiquité à nos jours

Les principales étapes du développement de la technologie informatique sont : Manuelle - jusqu'au 17e siècle, Mécanique - à partir du milieu du 17e siècle, Électromécanique - à partir des années 90 du 19e siècle, Électronique - à partir des années 40 du 20e siècle.

La période manuelle a commencé à l’aube de la civilisation humaine.

Dans toute activité, l'homme a toujours inventé et créé une grande variété de moyens, dispositifs et outils afin d'élargir ses capacités et de faciliter le travail.

Avec le développement du commerce, le besoin d’un compte est apparu. Il y a plusieurs siècles, pour effectuer divers calculs, les gens ont commencé à utiliser d'abord leurs propres doigts, puis des cailloux, des bâtons, des nœuds, etc. Mais au fil du temps, les tâches auxquelles il était confronté sont devenues plus compliquées et il est devenu nécessaire de trouver des moyens, d'inventer des dispositifs qui pourraient l'aider à résoudre ces problèmes.

L'un des premiers appareils (Ve siècle avant JC) facilitant les calculs était une planche spéciale, appelée plus tard boulier (du grec « planche à compter »). Les calculs étaient effectués en déplaçant des os ou des cailloux dans les évidements de planches en bronze, pierre, ivoire, etc. En Grèce, le boulier existait déjà au Ve siècle avant JC. e. Un sillon correspondait aux unités, l'autre aux dizaines, etc. Si plus de 10 cailloux étaient collectés dans un sillon lors du comptage, ils étaient retirés et un caillou était ajouté au chiffre suivant. Les Romains ont amélioré le boulier, passant des rainures et des cailloux aux planches de marbre avec des rainures ciselées et des boules de marbre. Avec son aide, il a été possible d'effectuer les opérations mathématiques les plus simples d'addition et de soustraction.

La variété chinoise de boulier - suanpan - est apparue au 6ème siècle après JC ; Le soroban est un boulier japonais, dérivé du suanpan chinois, introduit au Japon aux XVe et XVIe siècles. XVIe siècle - Un boulier russe avec système de nombres décimaux est en cours de création. Ils ont subi des changements importants au fil des siècles, mais ils continuent d'être utilisés jusque dans les années 80 du 20e siècle.

Au début du XVIIe siècle, le mathématicien écossais J. Napier introduisit les logarithmes, qui eurent un impact révolutionnaire sur le comptage. La règle à calcul qu'il a inventée a été utilisée avec succès il y a quinze ans et a servi les ingénieurs pendant plus de 360 ​​ans. Il s’agit sans aucun doute du couronnement des outils informatiques manuels de l’ère de l’automatisation.

Le développement de la mécanique au XVIIe siècle est devenu une condition préalable à la création d'appareils et d'instruments informatiques utilisant la méthode de calcul mécanique. Parmi les dispositifs mécaniques, il existe des machines à additionner (elles peuvent additionner et soustraire), un appareil de multiplication (elles multiplient et divisent), au fil du temps, elles ont été combinées en une seule - une machine à additionner (elles peuvent effectuer les 4 opérations arithmétiques).

Dans les journaux du brillant italien Léonard de Vinci (1452-1519), un certain nombre de dessins ont déjà été découverts à notre époque, qui se sont révélés être une esquisse d'un ordinateur sommateur sur roues dentées, capable d'ajouter des nombres décimaux de 13 bits. . Dans ces années lointaines, le brillant scientifique était probablement la seule personne sur Terre à comprendre la nécessité de créer des dispositifs pour faciliter le travail de calcul. Cependant, le besoin était si minime (ou plutôt, il n'existait pas du tout !) que plus de cent ans seulement après la mort de Léonard de Vinci, un autre Européen fut découvert - le scientifique allemand Wilhelm Schickard (1592-1636). ), qui, bien entendu, n'a pas lu les journaux du grand Italien - qui a proposé sa solution à ce problème. La raison qui a poussé Schiccard à développer une machine à calculer pour additionner et multiplier des nombres décimaux à six chiffres était sa connaissance de l'astronome polonais J. Kepler. Ayant pris connaissance du travail du grand astronome, principalement lié aux calculs, Schickard eut l'idée de​​l'aider dans son travail difficile. Dans une lettre qui lui est adressée, envoyée en 1623, il donne un dessin de la machine et raconte son fonctionnement.

L’un des premiers exemples de tels mécanismes fut « l’horloge à compter » du mathématicien allemand Wilhelm Schickard. En 1623, il crée une machine qui deviendra la première calculatrice automatique. La machine de Schickard pouvait additionner et soustraire des nombres à six chiffres, sonnant ainsi lorsqu'elle était pleine. Malheureusement, l'histoire n'a pas conservé d'informations sur le sort ultérieur de la voiture.

Les inventions de Léonard de Vinci et de Wilhelm Schiccard ne sont devenues connues qu'à notre époque. Ils étaient inconnus de leurs contemporains.

Le plus célèbre des premiers ordinateurs était la machine de sommation de Blaise Pascal, qui construisit en 1642 le modèle Pascalina - machine à additionner pour les nombres à huit chiffres. B. Pascal a commencé à créer Pascalina à l'âge de 19 ans, en observant le travail de son père, qui était percepteur d'impôts et devait souvent effectuer des calculs longs et fastidieux. Et son seul objectif était de l'aider dans son travail.

En 1673, le mathématicien allemand Leibniz crée le premier arithmomètre, qui lui permet d'effectuer les quatre opérations arithmétiques. "...Ma machine permet d'effectuer instantanément des multiplications et des divisions sur des nombres énormes, sans recourir à des additions et soustractions séquentielles", a écrit V. Leibniz à l'un de ses amis. La machine de Leibniz était connue dans la plupart des pays européens.

Le principe des calculs s'est avéré efficace ; par la suite, le modèle a été affiné à plusieurs reprises dans différents pays par différents scientifiques.

Et à partir de 1881, la production en série de machines à additionner a été organisée, qui ont été utilisées pour des calculs pratiques jusqu'aux années soixante du 20e siècle.

Le modèle produit en série le plus célèbre était la machine à additionner Felix, de fabrication russe, qui reçut son nom en 1900. à l'exposition internationale de Paris une médaille d'or.

La période mécanique comprend également les développements théoriques des machines analytiques de Babidge, qui n’ont pas été mises en œuvre faute de financement. Les développements théoriques remontent aux années 1920-1971. Le Moteur Analytique était censé être la première machine utilisant le principe de contrôle par programme et destiné à calculer n'importe quel algorithme, les entrées-sorties étaient planifiées à l'aide de cartes perforées, il était censé fonctionner sur une machine à vapeur. Le moteur analytique était composé des quatre parties principales suivantes : une unité de stockage des données initiales, intermédiaires et résultantes (entrepôt - mémoire) ; unité de traitement de données (moulin - appareil arithmétique) ; unité de contrôle de séquence de calcul (dispositif de contrôle); bloc pour la saisie des données initiales et l'impression des résultats (dispositifs d'entrée/sortie), qui a ensuite servi de prototype pour la structure de tous les ordinateurs modernes. Lady Ada Lovelace (fille du poète anglais George Byron) a travaillé simultanément avec le scientifique anglais. Elle a développé les premiers programmes pour la machine, a formulé de nombreuses idées et introduit un certain nombre de concepts et de termes qui ont survécu jusqu'à ce jour. La comtesse Lovelace est considérée comme la première programmeuse informatique et le langage de programmation ADA porte son nom. Bien que le projet n’ait pas été mis en œuvre, il était largement connu et très apprécié des scientifiques. Charles Babidge avait un siècle d'avance sur son temps.

À suivre…

De tout temps, depuis l’Antiquité, les hommes ont eu besoin de compter. Au début, ils utilisaient leurs propres doigts ou des cailloux pour compter. Cependant, même des opérations arithmétiques simples impliquant de grands nombres sont difficiles à réaliser pour le cerveau humain. Par conséquent, déjà dans les temps anciens, l'instrument de comptage le plus simple a été inventé - le boulier, inventé il y a plus de 15 siècles dans les pays méditerranéens. Ce prototype de comptes modernes était un jeu de dominos enfilés sur des tiges et était utilisé par les marchands.

Les bouliers au sens arithmétique représentent des décimales. Chaque domino sur la première tige a une valeur de 1, sur la deuxième tige - 10, sur la troisième tige - 100, etc. Jusqu’au XVIIe siècle, le boulier restait pratiquement le seul instrument de comptage.

En Russie, le boulier dit russe est apparu au XVIe siècle. Ils sont basés sur le système de nombres décimaux et permettent d'effectuer rapidement des opérations arithmétiques (Fig. 6)

Riz. 6. Boulier

En 1614, le mathématicien John Napier invente les logarithmes.

Un logarithme est un exposant auquel il faut élever un nombre (la base du logarithme) pour obtenir un autre nombre donné. La découverte de Napier était que n'importe quel nombre peut être exprimé de cette manière et que la somme des logarithmes de deux nombres quelconques est égale au logarithme du produit de ces nombres. Cela a permis de réduire l’action de multiplication à l’action plus simple d’addition. Napier a créé des tables de logarithmes. Pour multiplier deux nombres, il faut regarder leurs logarithmes dans ce tableau, les additionner et trouver le nombre correspondant à cette somme dans le tableau inverse - les antilogarithmes. A partir de ces tables, en 1654 R. Bissacar et en 1657, indépendamment, S. Partridge développèrent une règle à calcul rectangulaire : le principal instrument de calcul de l'ingénieur jusqu'au milieu du XXe siècle (Fig. 7).

Riz. 7. Règle à calcul

En 1642, Blaise Pascal invente une machine à additionner mécanique utilisant le système de nombres décimaux. Chaque décimale était représentée par une roue à dix dents, indiquant les nombres de 0 à 9. Il y avait 8 roues au total, c'est-à-dire que la machine de Pascal était de 8 bits.

Cependant, ce n’est pas le système de nombres décimaux qui a gagné en informatique numérique, mais le système de nombres binaires. La raison principale en est que dans la nature, il existe de nombreux phénomènes avec deux états stables, par exemple « marche/arrêt », « il y a tension/pas de tension », « fausse déclaration / vraie déclaration », mais il n'y a pas de phénomènes avec dix états stables. Pourquoi le système décimal est-il si répandu ? Oui, tout simplement parce qu'une personne a dix doigts sur deux mains et qu'ils sont pratiques à utiliser pour un simple comptage mental. Mais en informatique électronique, il est beaucoup plus facile d’utiliser un système de nombres binaires avec seulement deux états stables des éléments et de simples tables d’addition et de multiplication. Dans les machines informatiques numériques modernes - les ordinateurs - le système binaire est utilisé non seulement pour enregistrer des nombres sur lesquels des opérations de calcul doivent être effectuées, mais également pour enregistrer les commandes elles-mêmes pour ces calculs et même des programmes d'opérations entiers. Dans ce cas, tous les calculs et opérations sont réduits dans un ordinateur aux opérations arithmétiques les plus simples sur des nombres binaires.



L’un des premiers à s’intéresser au système binaire fut le grand mathématicien allemand Gottfried Leibniz. En 1666, à l'âge de vingt ans, dans son ouvrage « Sur l'art de la combinatoire », il développe une méthode générale qui permet de réduire toute pensée à des énoncés formels précis. Cela a ouvert la possibilité de transférer la logique (Leibniz l'appelait les lois de la pensée) du royaume des mots au royaume des mathématiques, où les relations entre objets et énoncés sont définies de manière précise et définitive. Ainsi, Leibniz fut le fondateur de la logique formelle. Il faisait des recherches sur le système de nombres binaires. En même temps, Leibniz lui confère une certaine signification mystique : il associe le chiffre 1 à Dieu, et le 0 au vide. A partir de ces deux chiffres, selon lui, tout s'est passé. Et avec l’aide de ces deux nombres, vous pouvez exprimer n’importe quel concept mathématique. Leibniz fut le premier à suggérer que le système binaire pourrait devenir un langage logique universel.

Leibniz rêvait de construire une « science universelle ». Il a voulu mettre en évidence les concepts les plus simples, à l'aide desquels, selon certaines règles, des concepts de toute complexité peuvent être formulés. Il rêvait de créer un langage universel dans lequel toutes les pensées pourraient être écrites sous forme de formules mathématiques. J'ai pensé à une machine qui pourrait dériver des théorèmes à partir d'axiomes, transformer des énoncés logiques en énoncés arithmétiques. En 1673, il créa un nouveau type de machine à additionner : une calculatrice mécanique qui non seulement additionne et soustrait des nombres, mais multiplie, divise, élève en puissance et extrait des racines carrées et cubiques. Il utilisait le système de nombres binaires.

Le langage logique universel a été créé en 1847 par le mathématicien anglais George Boole. Il a développé le calcul propositionnel, qui a ensuite été nommé algèbre booléenne en son honneur. Il représente la logique formelle traduite dans le langage strict des mathématiques. Les formules de l'algèbre booléenne sont superficiellement similaires aux formules de l'algèbre que nous connaissons depuis l'école. Cependant, cette similitude n’est pas seulement externe, mais aussi interne. L'algèbre booléenne est une algèbre totalement égale, soumise à l'ensemble des lois et règles adoptées lors de sa création. C'est un système de notation applicable à tous les objets : chiffres, lettres et phrases. En utilisant ce système, vous pouvez coder toutes les déclarations qui doivent être prouvées vraies ou fausses, puis les manipuler comme des nombres ordinaires en mathématiques.

George Boole (1815-1864) - mathématicien et logicien anglais, l'un des fondateurs de la logique mathématique. Développé l'algèbre de la logique (dans les ouvrages « Analyse mathématique de la logique » (1847) et « Étude des lois de la pensée » (1854)).

Le mathématicien américain Charles Peirce a joué un rôle important dans la diffusion de l'algèbre booléenne et dans son développement.

Charles Pierce (1839-1914) était un philosophe, logicien, mathématicien et naturaliste américain, connu pour ses travaux sur la logique mathématique.

Le sujet à considérer en algèbre de la logique sont ce qu'on appelle les énoncés, c'est-à-dire toute affirmation qui peut être considérée comme vraie ou fausse : « Omsk est une ville de Russie », « 15 est un nombre pair ». La première affirmation est vraie, la seconde est fausse.

Les énoncés complexes obtenus à partir d'énoncés simples en utilisant les conjonctions ET, OU, SI... ALORS, les négations NON, peuvent également être vrais ou faux. Leur vérité ne dépend que de la véracité ou de la fausseté des simples affirmations qui les forment, par exemple : « S'il ne pleut pas dehors, alors tu peux aller te promener. La tâche principale de l’algèbre booléenne est d’étudier cette dépendance. On considère des opérations logiques qui vous permettent de construire des instructions complexes à partir d'instructions simples : négation (NON), conjonction (ET), disjonction (OU) et autres.

En 1804, J. Jacquard invente une machine à tisser permettant de réaliser des tissus à grands motifs. Ce motif a été programmé à l'aide d'un jeu complet de cartes perforées - des cartes rectangulaires en carton. Sur eux, des informations sur le motif étaient enregistrées en perforant des trous (perforations) situés dans un certain ordre. Lorsque la machine fonctionnait, ces cartes perforées étaient palpées à l'aide d'épingles spéciales. C’est de cette manière mécanique que les informations étaient lues pour tisser un motif de tissu programmé. La machine Jacquard était le prototype des machines contrôlées par ordinateur créées au XXe siècle.

En 1820, Thomas de Colmar met au point la première machine à additionner commerciale capable de multiplier et de diviser. Depuis le XIXe siècle, les machines à additionner se sont généralisées pour effectuer des calculs complexes.

En 1830, Charles Babbage tenta de créer un moteur analytique universel censé effectuer des calculs sans intervention humaine. Pour ce faire, on y a introduit des programmes préenregistrés sur des cartes perforées en papier épais en utilisant des trous pratiqués dessus dans un certain ordre (le mot « perforation » signifie « percer des trous dans du papier ou du carton »). Les principes de programmation du moteur analytique de Babbage ont été développés en 1843 par Ada Lovelace, la fille du poète Byron.


Riz. 8. Charles Babbage


Riz. 9. Ada Lovelace

Un moteur analytique doit être capable de mémoriser les données et les résultats intermédiaires des calculs, c'est-à-dire avoir de la mémoire. Cette machine était censée contenir trois parties principales : un dispositif pour stocker les nombres tapés à l'aide d'engrenages (mémoire), un dispositif pour opérer sur les nombres (unité arithmétique) et un dispositif pour gérer les nombres à l'aide de cartes perforées (dispositif de contrôle de programme). Les travaux de création du moteur analytique n'étaient pas terminés, mais les idées qu'il contenait ont permis de construire les premiers ordinateurs au XXe siècle (traduit de l'anglais, ce mot signifie « calculatrice »).

En 1880 V.T. Odner en Russie a créé une machine à additionner mécanique avec des roues dentées et, en 1890, il a lancé sa production en série. Par la suite, il a été produit sous le nom de « Félix » jusque dans les années 50 du 20e siècle (Fig. 11).


Riz. 10. V.T. Odner


Riz. 11. Machine à additionner mécanique "Félix"

En 1888, Herman Hollerith (Fig. 12) a créé la première machine à calculer électromécanique - une tabulatrice, dans laquelle les informations imprimées sur des cartes perforées (Fig. 13) étaient déchiffrées par le courant électrique. Cette machine a permis de réduire plusieurs fois le temps de comptage pour le recensement américain. En 1890, l'invention de Hollerith fut utilisée pour la première fois lors du 11e recensement américain. Le travail que 500 employés avaient auparavant mis jusqu'à 7 ans à accomplir a été réalisé par Hollerith et 43 assistants sur 43 tabulatrices en un mois.

En 1896, Hollerith fonde une société appelée Tabulated Machine Co. En 1911, cette société fusionna avec deux autres sociétés spécialisées dans l'automatisation du traitement des données statistiques et reçut son nom moderne IBM (International Business Machines) en 1924. Elle devint une société électronique, l'un des plus grands fabricants mondiaux de tous types de produits. ordinateurs et logiciels, fournisseur de réseaux d'information mondiaux. Le fondateur d'IBM était Thomas Watson Sr., qui a dirigé l'entreprise en 1914, a essentiellement créé IBM Corporation et l'a dirigée pendant plus de 40 ans. Depuis le milieu des années 1950, IBM occupe une position de leader sur le marché informatique mondial. En 1981, l’entreprise crée son premier ordinateur personnel, qui devient la norme de l’industrie. Au milieu des années 1980, IBM contrôlait environ 60 % de la production mondiale d'ordinateurs électroniques.


Riz. 12. Thomas Watson Sr.

Riz. 13. Herman Hollerith

À la fin du XIXe siècle, le ruban perforé a été inventé - du papier ou un film celluloïd, sur lequel des informations étaient appliquées à l'aide d'un poinçon sous la forme d'un ensemble de trous.

Un large ruban de papier perforé était utilisé dans le monotype, une machine à composer inventée par T. Lanston en 1892. Le monotype se composait de deux appareils indépendants : un clavier et un appareil de coulée. Le clavier servait à compiler un programme de frappe sur bande perforée, et la machine de coulée effectuait la frappe conformément au programme préalablement compilé sur le clavier à partir d'un alliage typographique spécial - gart.

Riz. 14. Carte perforée

Riz. 15. Bandes perforées

Le compositeur s'est assis devant le clavier, a regardé le texte qui se trouvait devant lui sur le pupitre et a appuyé sur les touches appropriées. Lorsqu'une des touches de lettre était frappée, les aiguilles du mécanisme de perforation utilisaient de l'air comprimé pour perforer une combinaison de codes de trous dans la bande de papier. Cette combinaison correspondait à une lettre, un signe ou un espace donné entre eux. Après chaque frappe sur la clé, le ruban de papier s'est déplacé d'un pas - 3 mm. Chaque rangée horizontale de trous sur le papier perforé correspond à une lettre, un signe ou un espace entre eux. La bobine finie (perforée) de ruban de papier perforé a été transférée vers une machine de coulée, dans laquelle, également à l'aide d'air comprimé, les informations codées dessus ont été lues à partir du ruban de papier perforé et un ensemble de lettres a été automatiquement produit. Ainsi, le monotype est l’une des premières machines contrôlées par ordinateur de l’histoire de la technologie. Elle a été classée comme machine de composition à chaud et a progressivement cédé la place à la photocomposition puis à la composition électronique.

Un peu plus tôt que le monotype, en 1881, le pianola (ou phonola) a été inventé - un instrument permettant de jouer automatiquement du piano. Il fonctionnait également à l'air comprimé. Dans un pianola, chaque touche d'un piano ordinaire ou d'un piano à queue correspond à un marteau qui le frappe. L’ensemble des marteaux constitue le contre-clavier, qui est fixé au clavier du piano. Un large ruban de papier perforé enroulé sur un rouleau est inséré dans le pianola. Les trous sur la bande perforée sont réalisés à l'avance pendant que le pianiste joue - ce sont des sortes de « notes ». Lorsqu'un pianola fonctionne, la bande de papier perforée est rembobinée d'un rouleau à l'autre. Les informations qui y sont enregistrées sont lues à l'aide d'un mécanisme pneumatique. Il active des marteaux qui correspondent aux trous de la bande perforée, les faisant frapper sur les touches et reproduire la performance du pianiste. Ainsi, le pianola était aussi une machine commandée par programme. Grâce aux bandes de piano perforées conservées, il a été possible de restaurer et de réenregistrer, en utilisant des méthodes modernes, les performances de pianistes du passé aussi remarquables que le compositeur A.N. Scriabine. Le pianola était utilisé par les célèbres compositeurs et pianistes Rubinstein, Paderewski, Busoni.

Plus tard, les informations ont été lues à partir de bandes perforées et de cartes perforées à l'aide de contacts électriques - des brosses métalliques qui, au contact d'un trou, fermaient un circuit électrique. Puis les balais ont été remplacés par des photocellules, et la lecture des informations est devenue optique, sans contact. C’est ainsi que les informations étaient enregistrées et lues dans les premiers ordinateurs numériques.

Les opérations logiques sont étroitement liées à la vie quotidienne.

En utilisant un élément OU pour deux entrées, deux éléments ET pour deux entrées et un élément NON, vous pouvez construire un circuit logique d'un demi-additionneur binaire capable d'effectuer l'opération d'addition binaire de deux nombres binaires à un chiffre (c'est-à-dire, remplissant la condition règles de l'arithmétique binaire) :

0 +0 =0 ; 0+1=1 ; 1+0=1 ; 1+1=0. Ce faisant, il alloue le bit de report.

Cependant, un tel circuit ne contient pas de troisième entrée à laquelle peut être appliqué un signal de retenue du bit précédent de la somme des nombres binaires. Par conséquent, le demi-additionneur n'est utilisé que dans le bit le moins significatif du circuit logique pour additionner les nombres binaires multi-bits, où il ne peut pas y avoir de signal de retenue du bit binaire précédent. Un additionneur binaire complet ajoute deux nombres binaires multi-bits, en tenant compte des signaux de retenue issus de l'addition dans les bits binaires précédents.

En connectant des additionneurs binaires en cascade, vous pouvez obtenir un circuit additionneur logique pour les nombres binaires avec n'importe quel nombre de chiffres.

Avec quelques modifications, ces circuits logiques sont également utilisés pour soustraire, multiplier et diviser des nombres binaires. Avec leur aide, les appareils arithmétiques des ordinateurs modernes ont été construits.

En 1937, George Stibitz (Fig. 16) a créé un additionneur binaire à partir de relais électromécaniques ordinaires - un dispositif capable d'effectuer l'opération d'addition de nombres en code binaire. Et aujourd'hui, l'additionneur binaire reste l'un des principaux composants de tout ordinateur, la base de son dispositif arithmétique.


Riz. 16. Georges Stibitz

En 1937-1942 John Atanasoff (Fig. 17) a créé un modèle du premier ordinateur fonctionnant avec des tubes à vide. Il utilisait le système de nombres binaires. Des cartes perforées ont été utilisées pour saisir les données et produire les résultats des calculs. Les travaux sur cette machine furent presque terminés en 1942, mais en raison de la guerre, tout financement supplémentaire fut interrompu.


Riz. 17. John Atanasoff

En 1937, Konrad Zuse (Fig. 12) crée son premier ordinateur Z1 basé sur des relais électromécaniques. Les données initiales y étaient saisies à l'aide d'un clavier et le résultat des calculs était affiché sur un panneau avec de nombreuses ampoules. En 1938, K. Zuse crée un modèle Z2 amélioré. Les programmes y étaient saisis à l'aide de bandes perforées. Il a été réalisé en perçant des trous dans un film photographique 35 mm usagé. En 1941, K. Zuse a construit un ordinateur fonctionnel Z3, puis Z4, basé sur le système de nombres binaires. Ils ont été utilisés pour des calculs lors de la création d'avions et de missiles. En 1942, Konrad Zuse et Helmut Schreier ont eu l'idée de convertir le Z3 des relais électromécaniques en tubes à vide. Une telle machine était censée fonctionner 1000 fois plus vite, mais il n'a pas été possible de la créer - la guerre a fait obstacle.


Riz. 18. Konrad Zuse

En 1943-1944, dans l'une des entreprises IBM (IBM), en collaboration avec des scientifiques de l'Université Harvard dirigés par Howard Aiken, l'ordinateur Mark-1 a été créé. Il pesait environ 35 tonnes. "Mark-1" était basé sur l'utilisation de relais électromécaniques et fonctionnait avec des chiffres codés sur une bande perforée.

Lors de sa création, les idées énoncées par Charles Babbage dans son moteur analytique ont été utilisées. Contrairement à Stiebitz et Zuse, Aiken n'a pas réalisé les avantages du système de nombres binaires et a utilisé le système décimal dans sa machine. La machine pouvait manipuler des nombres comportant jusqu’à 23 chiffres. Pour multiplier deux de ces nombres, il lui fallait 4 secondes. En 1947, la machine Mark-2 a été créée, qui utilisait déjà le système de nombres binaires. Dans cette machine, les opérations d'addition et de soustraction prenaient en moyenne 0,125 seconde et la multiplication 0,25 seconde.

La science abstraite de l’algèbre logique est proche de la vie pratique. Il vous permet de résoudre divers problèmes de contrôle.

Les signaux d'entrée et de sortie des relais électromagnétiques, comme les instructions de l'algèbre booléenne, ne prennent également que deux valeurs. Lorsque l'enroulement est hors tension, le signal d'entrée est 0 et lorsque le courant circule dans l'enroulement, le signal d'entrée est 1. Lorsque le contact du relais est ouvert, le signal de sortie est 0 et lorsque le contact est fermé, il est 1.

C'est précisément cette similitude entre les énoncés de l'algèbre booléenne et le comportement des relais électromagnétiques qui a été remarquée par le célèbre physicien Paul Ehrenfest. Dès 1910, il proposait d'utiliser l'algèbre booléenne pour décrire le fonctionnement des circuits relais dans les systèmes téléphoniques. Selon une autre version, l'idée d'utiliser l'algèbre booléenne pour décrire les circuits de commutation électrique appartient à Peirce. En 1936, le fondateur de la théorie moderne de l'information, Claude Shannon, a combiné le système de nombres binaires, la logique mathématique et les circuits électriques dans sa thèse de doctorat.

Il est pratique de désigner les connexions entre les relais électromagnétiques dans les circuits en utilisant les opérations logiques NON, ET, OU, RÉPÉTER (OUI), etc. Par exemple, une connexion en série de contacts de relais implémente une opération ET, et une connexion parallèle de ces contacts implémente une opération OU logique. Les opérations ET, OU, NON sont effectuées de la même manière dans les circuits électroniques, où le rôle des relais qui ferment et ouvrent les circuits électriques est assuré par des éléments semi-conducteurs sans contact - des transistors, créés en 1947-1948 par les scientifiques américains D. Bardeen, W. Brattain et W. .Shockley.

Les relais électromécaniques étaient trop lents. C'est pourquoi, dès 1943, les Américains ont commencé à développer un ordinateur basé sur des tubes à vide. En 1946, Presper Eckert et John Mauchly (Fig. 13) construisirent le premier ordinateur numérique électronique, ENIAC. Son poids était de 30 tonnes, il occupait 170 mètres carrés. m de superficie. Au lieu de milliers de relais électromécaniques, ENIAC contenait 18 000 tubes à vide. La machine comptait dans le système binaire et effectuait 5 000 opérations d'addition ou 300 opérations de multiplication par seconde. Non seulement un appareil arithmétique, mais aussi un appareil de stockage a été construit sur des tubes à vide dans cette machine. Les données numériques étaient saisies à l'aide de cartes perforées, tandis que les programmes étaient saisis dans cette machine à l'aide de fiches et de champs de composition, c'est-à-dire que des milliers de contacts devaient être connectés pour chaque nouveau programme. Par conséquent, il a fallu plusieurs jours pour se préparer à résoudre un nouveau problème, même si le problème lui-même a été résolu en quelques minutes. C’était l’un des principaux inconvénients d’une telle machine.


Riz. 19. Presper Eckert et John Mauchly

Le travail de trois scientifiques exceptionnels - Claude Shannon, Alan Turing et John von Neumann - est devenu la base de la création de la structure des ordinateurs modernes.

Shannon Claude (née en 1916) est une ingénieure et mathématicienne américaine, fondatrice de la théorie mathématique de l'information.

En 1948, il publie l'ouvrage « Théorie mathématique de la communication », avec sa théorie de la transmission et du traitement de l'information, qui inclut tous les types de messages, y compris ceux transmis le long des fibres nerveuses des organismes vivants. Shannon a introduit le concept de quantité d'informations comme mesure de l'incertitude de l'état du système, supprimée lors de la réception d'informations. Il a appelé cette mesure de l’incertitude entropie, par analogie avec un concept similaire en mécanique statistique. Lorsque l'observateur reçoit des informations, l'entropie, c'est-à-dire le degré d'ignorance de l'état du système, diminue.

Alan Turing (1912-1954) – mathématicien anglais. Ses principaux travaux portent sur la logique mathématique et les mathématiques computationnelles. En 1936-1937 a écrit l'ouvrage fondateur « On Computable Numbers », dans lequel il a introduit le concept d'un dispositif abstrait, appelé plus tard la « machine de Turing ». Avec cet appareil, il a anticipé les propriétés fondamentales de l'ordinateur moderne. Turing a qualifié son appareil de « machine universelle », car il était censé résoudre tout problème mathématique ou logique admissible (théoriquement résoluble). Les données doivent y être saisies à partir d'une bande de papier divisée en cellules - cellules. Chacune de ces cellules devait contenir ou non un symbole. La machine de Turing pourrait traiter les symboles saisis sur la bande et les modifier, c'est-à-dire les effacer et en écrire de nouveaux selon les instructions stockées dans sa mémoire interne.

Neumann John von (1903-1957) - mathématicien et physicien américain, participant au développement d'armes atomiques et à hydrogène. Né à Budapest, il vit aux Etats-Unis depuis 1930. Dans son rapport, publié en 1945 et devenant le premier ouvrage sur les ordinateurs électroniques numériques, il identifie et décrit « l'architecture » de l'ordinateur moderne.

Dans la machine suivante - EDVAC - sa mémoire interne plus volumineuse était capable de stocker non seulement les données originales, mais également le programme de calcul. Cette idée – stocker des programmes dans la mémoire des machines – a été avancée par le mathématicien John von Neumann avec Mauchly et Eckert. Il fut le premier à décrire la structure d'un ordinateur universel (la soi-disant « architecture von Neumann » d'un ordinateur moderne). Pour un fonctionnement universel et efficace, selon von Neumann, un ordinateur doit contenir une unité arithmétique-logique centrale, un dispositif central pour contrôler toutes les opérations, un périphérique de stockage (mémoire) et un périphérique d'entrée/sortie d'informations, et les programmes doivent être stockés dans la mémoire de l'ordinateur.

Von Neumann pensait qu'un ordinateur devait fonctionner sur la base du système de nombres binaires, être électronique et effectuer toutes les opérations de manière séquentielle, les unes après les autres. Ces principes sont à la base de tous les ordinateurs modernes.

Une machine utilisant des tubes à vide fonctionnait beaucoup plus rapidement qu'une machine utilisant des relais électromécaniques, mais les tubes à vide eux-mêmes n'étaient pas fiables. Ils échouaient souvent. Pour les remplacer en 1947, John Bardeen, Walter Brattain et William Shockley proposèrent d'utiliser les éléments semi-conducteurs de commutation qu'ils avaient inventés : les transistors.

John Bardeen (1908-1991) – physicien américain. L'un des créateurs du premier transistor (prix Nobel de physique 1956 avec W. Brattain et W. Shockley pour la découverte de l'effet transistor). L'un des auteurs de la théorie microscopique de la supraconductivité (deuxième prix Nobel en 1957 conjointement avec L. Cooper et D. Schriffen).

Walter Brattain (1902-1987) - Physicien américain, l'un des créateurs du premier transistor, lauréat du prix Nobel de physique en 1956.

William Shockley (1910-1989) - Physicien américain, l'un des créateurs du premier transistor, lauréat du prix Nobel de physique en 1956.

Dans les ordinateurs modernes, les transistors microscopiques d’une puce de circuit intégré sont regroupés en systèmes de « portes » qui effectuent des opérations logiques sur les nombres binaires. Par exemple, avec leur aide, les additionneurs binaires décrits ci-dessus ont été construits, qui permettent d'ajouter des nombres binaires à plusieurs chiffres, de soustraire, de multiplier, de diviser et de comparer des nombres entre eux. Les portes logiques, agissant selon certaines règles, contrôlent le mouvement des données et l'exécution des instructions dans l'ordinateur.

L'amélioration des premiers types d'ordinateurs conduit en 1951 à la création de l'ordinateur UNIVAC, destiné à un usage commercial. Il est devenu le premier ordinateur produit commercialement.

L'ordinateur à tube série IBM 701, apparu en 1952, effectuait jusqu'à 2 200 opérations de multiplication par seconde.


Ordinateur IBM 701

L'initiative de créer ce système appartenait à Thomas Watson Jr. En 1937, il commence à travailler pour l'entreprise en tant que voyageur de commerce. Il n’a arrêté de travailler pour IBM que pendant la guerre, alors qu’il était pilote dans l’armée de l’air américaine. De retour dans l'entreprise en 1946, il en devient vice-président et dirige IBM de 1956 à 1971. Tout en restant membre du conseil d'administration d'IBM, Thomas Watson a été ambassadeur des États-Unis en URSS de 1979 à 1981.


Thomas Watson (Jr.)

En 1964, IBM annonce la création de six modèles de la famille IBM 360 (System 360), qui deviendront les premiers ordinateurs de la troisième génération. Les modèles disposaient d'un système de commande unique et différaient les uns des autres par la quantité de RAM et les performances. Lors de la création de modèles de la famille, un certain nombre de nouveaux principes ont été utilisés, qui ont rendu les machines universelles et ont permis de les utiliser avec la même efficacité à la fois pour résoudre des problèmes dans divers domaines scientifiques et technologiques et pour traiter des données dans le domaine de gestion et affaires. IBM System/360 (S/360) est une famille d'ordinateurs universels de classe mainframe. Les développements ultérieurs d'IBM/360 étaient les systèmes 370, 390, z9 et zSeries. En URSS, l'IBM/360 a été cloné sous le nom d'ES COMPUTER. Il s'agissait de logiciels compatibles avec leurs prototypes américains. Cela a permis d’utiliser des logiciels occidentaux dans des conditions de sous-développement de « l’industrie de la programmation » nationale.


Ordinateur IBM/360


T. Watson (Jr.) et V. Lerson devant l'ordinateur IBM/360

La première petite machine informatique électronique (MESM) de l'URSS utilisant des tubes à vide a été construite en 1949-1951. sous la direction de l'académicien S.A. Lebedeva. Indépendamment des scientifiques étrangers S.A. Lebedev a développé les principes de construction d'un ordinateur avec un programme stocké en mémoire. MESM a été la première machine de ce type. Et en 1952-1954. sous sa direction, la machine de calcul électronique à grande vitesse (BESM) a été développée, effectuant 8 000 opérations par seconde.


Lebedev Sergueï Alekseevich

La création des ordinateurs électroniques a été dirigée par les plus grands scientifiques et ingénieurs soviétiques I.S. Brook, W.M. Glushkov, Yu.A. Bazilevsky, B.I. Rameev, L.I. Gutenmacher, N.P. Brusentsov.

La première génération d'ordinateurs soviétiques comprenait des ordinateurs à tubes - "BESM-2", "Strela", "M-2", "M-3", "Minsk", "Ural-1", "Ural-2", "M - 20".

La deuxième génération d'ordinateurs soviétiques comprend des petits ordinateurs à semi-conducteurs "Nairi" et "Mir", des ordinateurs de taille moyenne pour les calculs scientifiques et le traitement de l'information avec une vitesse de 5 à 30 000 opérations par seconde "Minsk-2", "Minsk-22". , "Minsk-32", "Ural-14", "Razdan-2", "Razdan-3", "BESM-4", "M-220" et ordinateurs de contrôle "Dnepr", "VNIIEM-3", ainsi que le BESM-6 ultra-rapide avec une performance de 1 million d'opérations par seconde.

Les fondateurs de la microélectronique soviétique étaient des scientifiques émigrés des États-Unis vers l'URSS : F.G. Staros (Alfred Sarant) et I.V. Berg (Joël Barr). Ils sont devenus les initiateurs, organisateurs et directeurs du centre de microélectronique de Zelenograd, près de Moscou.


F.G. Staros

Les ordinateurs de troisième génération basés sur des circuits intégrés sont apparus en URSS dans la seconde moitié des années 1960. Le système informatique unifié (ES COMPUTER) et le petit système informatique (SM COMPUTER) ont été développés et leur production en série a été organisée. Comme mentionné ci-dessus, ce système était un clone du système américain IBM/360.

Evgeniy Alekseevich Lebedev était un ardent opposant à la copie du système américain IBM/360, qui dans la version soviétique s'appelait ES Computer, qui a commencé dans les années 1970. Le rôle de EU Computers dans le développement des ordinateurs nationaux est ambigu.

Au stade initial, l'émergence des ordinateurs ES a conduit à l'unification des systèmes informatiques, a permis d'établir des normes de programmation initiales et d'organiser des projets à grande échelle liés à la mise en œuvre de programmes.

Le prix en fut la réduction généralisée de leurs propres développements originaux et la dépendance totale aux idées et aux concepts d'IBM, qui étaient loin d'être les meilleurs à l'époque. La transition brutale des machines soviétiques faciles à utiliser vers le matériel et les logiciels beaucoup plus complexes de l'IBM/360 a obligé de nombreux programmeurs à surmonter des difficultés liées aux lacunes et aux erreurs des développeurs IBM. Les premiers modèles d'ordinateurs ES avaient souvent des performances inférieures à celles des ordinateurs domestiques de l'époque.

Plus tard, notamment dans les années 80, l’introduction généralisée des ordinateurs européens s’est transformée en un sérieux obstacle au développement de logiciels, de bases de données et de systèmes de dialogue. Après des achats coûteux et planifiés à l’avance, les entreprises ont été contraintes d’exploiter des systèmes informatiques obsolètes. Parallèlement, des systèmes se développent sur de petites machines et sur des ordinateurs personnels, qui deviennent de plus en plus populaires.

Plus tard, avec le début de la perestroïka, en 1988-1989, notre pays a été inondé d’ordinateurs personnels étrangers. Aucune mesure n'a pu arrêter la crise de la série informatique de l'UE. La branche de production nationale n'a pas été en mesure de créer des analogues ou des substituts aux ordinateurs ES sur la base de la nouvelle base d'éléments. L'économie de l'URSS ne permettait pas à cette époque de consacrer de gigantesques ressources financières à la création d'équipements microélectroniques. En conséquence, il y a eu une transition complète vers les ordinateurs importés. Les programmes de développement d'ordinateurs domestiques ont finalement été réduits. Des problèmes sont survenus : transfert de technologies vers des ordinateurs modernes, modernisation des technologies, emploi et recyclage de centaines de milliers de spécialistes.

Prévisions S.A. Lebedeva était justifié. Aux États-Unis et dans le monde, ils ont ensuite suivi la voie qu'il proposait : d'une part, des supercalculateurs sont créés, et de l'autre, toute une série d'ordinateurs moins puissants destinés à diverses applications - personnelles, spécialisées, etc.

La quatrième génération d'ordinateurs soviétiques a été mise en œuvre sur la base de circuits intégrés à grande échelle (LSI) et à très grande échelle (VLSI).

Un exemple de grands systèmes informatiques de quatrième génération est le complexe multiprocesseur Elbrus-2, avec une vitesse pouvant atteindre 100 millions d'opérations par seconde.

Dans les années 1950, la deuxième génération d’ordinateurs à transistors a été créée. En conséquence, la vitesse des machines a été multipliée par 10 et leur taille et leur poids ont été considérablement réduits. Ils ont commencé à utiliser des dispositifs de stockage sur noyaux de ferrite magnétique, capables de stocker des informations indéfiniment même lorsque les ordinateurs sont éteints. Ils ont été conçus par Joy Forrester en 1951-1953. De grandes quantités d'informations étaient stockées sur des supports externes, tels qu'une bande magnétique ou un tambour magnétique.

Le premier disque dur de l'histoire de l'informatique (Winchester) a été développé en 1956 par un groupe d'ingénieurs IBM dirigé par Reynold B. Johnson. L'appareil s'appelait 305 RAMAC - une méthode de comptabilité et de contrôle à accès aléatoire. Le lecteur était constitué de 50 disques en aluminium d'un diamètre de 24 pouces (environ 60 cm) et d'une épaisseur de 2,5 cm chacun. Une couche magnétique a été appliquée sur la surface de la plaque d'aluminium sur laquelle l'enregistrement a été effectué. Toute cette structure de disques sur un axe commun tournait en mode de fonctionnement à une vitesse constante de 1 200 tr/min, et le lecteur lui-même occupait une superficie de 3x3,5 m. Sa capacité totale était de 5 Mo. L'un des principes les plus importants utilisés dans la conception du RAMAC 305 était que les têtes ne touchaient pas la surface des disques, mais planaient à une petite distance fixe. À cette fin, des buses d'air spéciales ont été utilisées, qui dirigeaient le flux vers le disque à travers de petits trous dans les supports de tête et créaient ainsi un espace entre la tête et la surface du plateau rotatif.

Le Winchester (disque dur) offrait aux utilisateurs d'ordinateurs la possibilité de stocker de très grandes quantités d'informations tout en récupérant rapidement les données nécessaires. Après la création du disque dur en 1958, les supports à bande magnétique ont été abandonnés.

En 1959, D. Kilby, D. Herney, K. Lehovec et R. Noyce (Fig. 14) ont inventé les circuits intégrés (puces) dans lesquels tous les composants électroniques, ainsi que les conducteurs, étaient placés à l'intérieur d'une plaquette de silicium. L'utilisation de puces dans les ordinateurs a permis de raccourcir les trajets du courant lors de la commutation. La vitesse des calculs a été décuplée. Les dimensions des machines ont également considérablement diminué. L'apparition de la puce a permis de créer la troisième génération d'ordinateurs. Et en 1964, IBM a commencé à produire des ordinateurs IBM-360 basés sur des circuits intégrés.


Riz. 14. D. Kilby, D. Hurney, K. Lechovec et R. Noyce

En 1965, Douglas Engelbart (Fig. 15) a créé la première « souris » : un manipulateur informatique portatif. Il a été utilisé pour la première fois sur l'ordinateur personnel Apple Macintosh, sorti plus tard, en 1976.


Riz. 19. Douglas Engelbart

En 1971, IBM a commencé à produire la disquette informatique, inventée par Yoshiro Nakamatsu, un disque magnétique flexible amovible (« disquette ») pour le stockage permanent d'informations. Initialement, la disquette avait un diamètre de 8 pouces et une capacité de 80 Ko, puis - 5 pouces. La disquette moderne de 1,44 Mo, lancée pour la première fois par Sony en 1982, est logée dans un boîtier en plastique dur et a un diamètre de 3,5 pouces.

En 1969, la création d'un réseau informatique de défense a commencé aux États-Unis, ancêtre de l'Internet mondial moderne.

Dans les années 1970, les imprimantes matricielles ont été développées pour imprimer des informations provenant d’ordinateurs.

En 1971, Edward Hoff, employé d'Intel (Fig. 20), a créé le premier microprocesseur, le 4004, en plaçant plusieurs circuits intégrés sur une seule puce de silicium. Bien qu’il ait été initialement destiné à être utilisé dans des calculatrices, il s’agissait essentiellement d’un micro-ordinateur complet. Cette invention révolutionnaire a radicalement changé l’idée selon laquelle les ordinateurs étaient des monstres encombrants et lourds. Le microprocesseur a permis de créer des ordinateurs de quatrième génération qui tiennent sur le bureau de l'utilisateur.


Riz. 20. Édouard Hoff

Au milieu des années 1970, des tentatives ont commencé pour créer un ordinateur personnel (PC), une machine informatique destinée à l'utilisateur privé.

En 1974, Edward Roberts (Fig. 21) a créé le premier ordinateur personnel, Altair, basé sur le microprocesseur Intel 8080 (Fig. 22). Mais sans logiciel, c'était inefficace : après tout, un utilisateur privé n'a pas son propre programmateur « à portée de main » chez lui.


Riz. 21. Édouard Roberts


Riz. 22. Premier ordinateur personnel Altaïr

En 1975, deux étudiants de l'Université Harvard, Bill Gates et Paul Allen, ont appris la création du PC Altair (Fig. 23). Ils furent les premiers à comprendre le besoin urgent d'écrire des logiciels pour ordinateurs personnels et en un mois, ils les créèrent pour le PC Altair basé sur le langage BASIC. La même année, ils fondent Microsoft, qui devient rapidement un leader dans le domaine des logiciels pour ordinateurs personnels et devient l'entreprise la plus riche du monde.


Riz. 23. Bill Gates et Paul Allen


Riz. 24. Bill Gates

En 1973, IBM a développé un disque dur magnétique (disque dur) pour ordinateur. Cette invention a permis de créer une mémoire à long terme de grande capacité, qui est conservée lorsque l'ordinateur est éteint.

Les premiers micro-ordinateurs Altair-8800 n'étaient qu'un ensemble de pièces qui devaient encore être assemblées. De plus, ils étaient extrêmement peu pratiques à utiliser : ils n'avaient ni moniteur, ni clavier, ni souris. Les informations y étaient saisies à l'aide de commutateurs sur le panneau avant et les résultats étaient affichés à l'aide d'indicateurs LED. Plus tard, ils ont commencé à afficher les résultats à l’aide d’un télétype – un appareil télégraphique doté d’un clavier.

En 1976, l'ingénieur Steve Wozniak de Hewlett-Packard, âgé de 26 ans, a créé un micro-ordinateur fondamentalement nouveau. Il fut le premier à utiliser un clavier semblable à celui d'une machine à écrire pour saisir des données et un téléviseur ordinaire pour afficher des informations. Les symboles étaient affichés sur son écran sur 24 lignes de 40 caractères chacune. L'ordinateur disposait de 8 Ko de mémoire, dont la moitié était occupée par le langage BASIC intégré et l'autre moitié que l'utilisateur pouvait utiliser pour saisir ses programmes. Cet ordinateur était nettement supérieur à l'Altair-8800, qui ne disposait que de 256 octets de mémoire. S. Wozniak a fourni un connecteur (appelé « slot ») pour son nouvel ordinateur afin de connecter des appareils supplémentaires. L'ami de Steve Wozniak, Steve Jobs, a été le premier à comprendre et à apprécier les perspectives de cet ordinateur (Fig. 25). Il a proposé d'organiser une entreprise pour sa production en série. Le 1er avril 1976, ils fondent la société Apple et l'enregistrent officiellement en janvier 1977. Ils ont appelé le nouvel ordinateur Apple-I (Fig. 26). En 10 mois, ils ont réussi à assembler et à vendre environ 200 exemplaires d'Apple-I.


Riz. 25. Steve Wozniak et Steve Jobs


Riz. 26. Ordinateur personnel Apple-I

A cette époque, Wozniak travaillait déjà à l'améliorer. La nouvelle version s'appelait Apple-II (Fig. 23). L'ordinateur a été fabriqué dans un boîtier en plastique, a reçu un mode graphique, son, couleur, mémoire étendue, 8 connecteurs d'extension (slots) au lieu d'un. Il utilisait un magnétophone à cassettes pour sauvegarder les programmes. La base du premier modèle Apple II était, comme dans l'Apple I, le microprocesseur 6502 de MOS Technology avec une fréquence d'horloge de 1 mégahertz. BASIC a été enregistré en mémoire permanente. La capacité de RAM de 4 Ko a été étendue à 48 Ko. Les informations étaient affichées sur un téléviseur couleur ou noir et blanc fonctionnant selon le système standard NTSC pour les États-Unis. En mode texte, 24 lignes étaient affichées, de 40 caractères chacune, et en mode graphique, la résolution était de 280 x 192 pixels (six couleurs). Le principal avantage de l'Apple II était la possibilité d'étendre sa RAM jusqu'à 48 Ko et d'utiliser 8 connecteurs pour connecter des appareils supplémentaires. Grâce à l'utilisation de graphiques en couleur, il pourrait être utilisé pour une grande variété de jeux (Fig. 27).


Riz. 27. Ordinateur personnel Apple II

Grâce à ses capacités, l'Apple II a gagné en popularité auprès des personnes de diverses professions. Ses utilisateurs n'étaient pas tenus d'avoir des connaissances en électronique ou en langages de programmation.

L'Apple II est devenu le premier ordinateur véritablement personnel destiné aux scientifiques, ingénieurs, avocats, hommes d'affaires, femmes au foyer et écoliers.

En juillet 1978, l'Apple II a été complété par le lecteur Disk II, qui a considérablement élargi ses capacités. Le système d'exploitation disque Apple-DOS a été créé pour cela. Et fin 1978, l'ordinateur a été encore amélioré et commercialisé sous le nom d'Apple II Plus. Il pourrait désormais être utilisé dans le monde des affaires pour stocker des informations, mener des affaires et aider à la prise de décision. La création de programmes d'application tels que des éditeurs de texte, des organisateurs et des feuilles de calcul a commencé.

En 1979, Dan Bricklin et Bob Frankston ont créé VisiCalc, le premier tableur au monde. Cet outil était le mieux adapté aux calculs comptables. Sa première version a été écrite pour Apple II, qui était souvent achetée uniquement pour fonctionner avec VisiCalc.

Ainsi, en quelques années, le micro-ordinateur, en grande partie grâce à Apple et à ses fondateurs Steven Jobs et Steve Wozniak, s'est transformé en un ordinateur personnel destiné à des personnes de diverses professions.

En 1981, l'ordinateur personnel IBM PC est apparu, qui est rapidement devenu la norme dans l'industrie informatique et a remplacé presque tous les modèles d'ordinateurs personnels concurrents du marché. La seule exception était Apple. En 1984, est créé l'Apple Macintosh, le premier ordinateur doté d'une interface graphique contrôlée par une souris. Grâce à ses avantages, Apple a réussi à rester sur le marché des ordinateurs personnels. Il a conquis le marché de l'éducation et de l'édition, où les capacités graphiques exceptionnelles des Macintosh sont utilisées pour la mise en page et le traitement des images.

Aujourd'hui, Apple contrôle 8 à 10 % du marché mondial des ordinateurs personnels, les 90 % restants étant constitués d'ordinateurs personnels compatibles IBM. La plupart des ordinateurs Macintosh appartiennent à des utilisateurs aux États-Unis.

En 1979, apparaît le disque compact optique (CD), développé par Philips et destiné uniquement à l'écoute d'enregistrements musicaux.

En 1979, Intel a développé le microprocesseur 8088 pour les ordinateurs personnels.

Les ordinateurs personnels du modèle IBM PC, créés en 1981 par un groupe d'ingénieurs IBM dirigé par William C. Lowe, se sont généralisés. Le PC IBM disposait d'un processeur Intel 8088 avec une fréquence d'horloge de 4,77 MHz, de 16 Ko de mémoire extensible jusqu'à 256 Ko et du système d'exploitation DOS 1.0. (Fig. 24). Le système d'exploitation DOS 1.0 a été créé par Microsoft. En seulement un mois, IBM a réussi à vendre 241 683 PC IBM. En accord avec les dirigeants de Microsoft, IBM a versé un certain montant aux créateurs du programme pour chaque copie du système d'exploitation installée sur le PC IBM. Grâce à la popularité du PC IBM, les dirigeants de Microsoft, Bill Gates et Paul Allen, sont rapidement devenus milliardaires et Microsoft a pris une position de leader sur le marché des logiciels.


Riz. 28. Modèle d'ordinateur personnel IBM PC

Le PC IBM appliquait le principe de l'architecture ouverte, ce qui permettait d'apporter des améliorations et des ajouts aux conceptions de PC existantes. Ce principe implique l'utilisation de blocs et de dispositifs prêts à l'emploi dans la conception lors de l'assemblage d'un ordinateur, ainsi que la standardisation des méthodes de connexion des périphériques informatiques.

Le principe de l'architecture ouverte a contribué à l'adoption généralisée des micro-ordinateurs clones compatibles IBM PC. Un grand nombre d'entreprises à travers le monde ont commencé à les assembler à partir de blocs et d'appareils prêts à l'emploi. Les utilisateurs, à leur tour, ont pu mettre à niveau leurs micro-ordinateurs de manière indépendante et les équiper d'appareils supplémentaires provenant de centaines de fabricants.

À la fin des années 1990, les ordinateurs compatibles IBM PC représentaient 90 % du marché des ordinateurs personnels.

Le PC IBM est rapidement devenu la norme dans l'industrie informatique et a chassé du marché presque tous les modèles d'ordinateurs personnels concurrents. La seule exception était Apple. En 1984, est créé l'Apple Macintosh, le premier ordinateur doté d'une interface graphique contrôlée par une souris. Grâce à ses avantages, Apple a réussi à rester sur le marché des ordinateurs personnels. Elle a conquis le marché dans le domaine de l'éducation et de l'édition, où ses capacités graphiques exceptionnelles sont utilisées pour la mise en page et le traitement des images.

Aujourd'hui, Apple contrôle 8 à 10 % du marché mondial des ordinateurs personnels, les 90 % restants étant constitués d'ordinateurs personnels compatibles IBM. La plupart des ordinateurs Macintosh appartiennent à des utilisateurs américains.

Au cours des dernières décennies du XXe siècle, les ordinateurs ont considérablement augmenté leur vitesse ainsi que la quantité d’informations qu’ils traitent et stockent.

En 1965, Gordon Moore, l'un des fondateurs d'Intel Corporation, leader dans le domaine des circuits intégrés informatiques - « puces », a suggéré que le nombre de transistors qu'ils contiennent doublerait chaque année. Au cours des 10 années suivantes, cette prédiction s'est réalisée, puis il a suggéré que ce nombre doublerait désormais tous les 2 ans. En effet, le nombre de transistors dans les microprocesseurs double tous les 18 mois. Les informaticiens appellent désormais cette tendance la loi de Moore.


Riz. 29. Gordon Moore

Une tendance similaire est observée dans le développement et la production de dispositifs RAM et de dispositifs de stockage d’informations. D’ailleurs, je suis convaincu qu’au moment où ce livre sera publié, de nombreuses données numériques, en termes de capacité et de vitesse, seront devenues obsolètes.

Le développement des logiciels, sans lesquels il est généralement impossible d'utiliser un ordinateur personnel, et surtout des systèmes d'exploitation qui assurent l'interaction entre l'utilisateur et le PC, n'est pas en reste.

En 1981, Microsoft a développé le système d'exploitation MS-DOS pour ses ordinateurs personnels.

En 1983, l'ordinateur personnel amélioré IBM PC/XT d'IBM a été créé.

Dans les années 1980, des imprimantes à jet d'encre et laser noir et blanc ont été créées pour imprimer des informations à partir d'ordinateurs. Elles sont nettement supérieures aux imprimantes matricielles en termes de qualité d’impression et de vitesse.

En 1983-1993, le réseau informatique mondial Internet et le courrier électronique ont été créés, utilisés par des millions d'utilisateurs à travers le monde.

En 1992, Microsoft a lancé le système d'exploitation Windows 3.1 pour les ordinateurs compatibles IBM PC. Le mot « Windows » traduit de l'anglais signifie « fenêtres ». Un système d'exploitation fenêtré vous permet de travailler avec plusieurs documents à la fois. Il s’agit d’une « interface graphique ». Il s'agit d'un système d'interaction avec un PC dans lequel l'utilisateur manipule ce que l'on appelle des « icônes » : des images qu'il peut contrôler à l'aide d'une souris d'ordinateur. Cette interface graphique et ce système de fenêtres ont été créés pour la première fois au centre de recherche Xerox en 1975 et appliqués aux PC Apple.

En 1995, Microsoft a lancé le système d'exploitation Windows-95 pour ordinateurs compatibles IBM PC, plus avancé que Windows-3.1, en 1998 - sa modification Windows-98, et en 2000 - Windows-2000, et en 2006 - Windows XP. Un certain nombre de programmes d'application ont été développés pour eux : un éditeur de texte Word, des feuilles de calcul Excel, un programme d'utilisation d'Internet et du courrier électronique - Internet Explorer, un éditeur graphique Paint, des programmes d'application standards (calculatrice, horloge, composeur), un agenda Microsoft Schedule. , lecteur universel, phonographe et lecteur laser.

Ces dernières années, il est devenu possible de combiner du texte et des graphiques avec du son et des images animées sur un ordinateur personnel. Cette technologie est appelée « multimédia ». Les CD-ROM optiques (Compact Disk Read Only Memory - c'est-à-dire la mémoire morte sur un CD) sont utilisés comme support de stockage dans ces ordinateurs multimédias. Extérieurement, ils ne diffèrent pas des CD audio utilisés dans les lecteurs et les centres musicaux.

La capacité d'un CD-ROM atteint 650 Mo ; en termes de capacité, il occupe une position intermédiaire entre les disquettes et un disque dur. Un lecteur de CD est utilisé pour lire des CD. Les informations sur un CD ne sont écrites qu'une seule fois dans un environnement industriel et sur un PC, elles ne peuvent être lues que. Une grande variété de jeux, d'encyclopédies, d'albums d'art, de cartes, d'atlas, de dictionnaires et d'ouvrages de référence sont publiés sur CD-ROM. Tous sont équipés de moteurs de recherche pratiques qui vous permettent de trouver rapidement le matériel dont vous avez besoin. La capacité de mémoire de deux CD-ROM est suffisante pour accueillir une encyclopédie plus volumineuse que la Grande Encyclopédie soviétique.

À la fin des années 1990, des disques compacts et lecteurs optiques inscriptibles sur CD-R et CD-RW réinscriptibles ont été créés, permettant à l'utilisateur de réaliser tous les enregistrements audio et vidéo à sa guise.

Dans les années 1990-2000, en plus des ordinateurs personnels de bureau, des PC « portables » ont été lancés sous la forme d'une valise portable et de « palmtops » de poche encore plus petits (ordinateurs de poche) - comme leur nom l'indique, ils tiennent dans votre poche et sur la paume. de ta main. Les ordinateurs portables sont équipés d'un écran d'affichage à cristaux liquides situé dans le couvercle à charnière et pour les ordinateurs de poche, sur le panneau avant du boîtier.

En 1998-2000, une « mémoire flash » miniature à semi-conducteurs (sans pièces mobiles) a été créée. Ainsi, la mémoire Memory Stick a les dimensions et le poids d'un morceau de chewing-gum, et la mémoire SD de Panasonic a la taille et le poids d'un timbre-poste. Pendant ce temps, le volume de leur mémoire, qui peut être stocké indéfiniment, est de 64 à 128 Mo et même de 2 à 8 Go ou plus.

En plus des ordinateurs personnels portables, des superordinateurs sont créés pour résoudre des problèmes scientifiques et technologiques complexes - prévisions météorologiques et sismiques, calculs de fusées et d'avions, réactions nucléaires, déchiffrement du code génétique humain. Ils utilisent plusieurs à plusieurs dizaines de microprocesseurs qui effectuent des calculs parallèles. Le premier supercalculateur a été développé par Seymour Cray en 1976.

En 2002, le supercalculateur NEC Earth Simulator a été construit au Japon, effectuant 35 600 milliards d’opérations par seconde. C'est aujourd'hui le supercalculateur le plus rapide au monde.


Riz. 30. Craie Seymour


Riz. 31. Superordinateur Cray-1


Riz. 32. Supercalculateur Cray-2

En 2005, IBM a développé le supercalculateur Blue Gene avec une performance de plus de 30 000 milliards d'opérations par seconde. Il contient 12 000 processeurs et dispose de mille fois plus de puissance que le célèbre Deep Blue, avec lequel le champion du monde Garry Kasparov a joué aux échecs en 1997. IBM et des chercheurs de l'Institut Polytechnique Suisse de Lausanne ont tenté pour la première fois de modéliser le cerveau humain.

En 2006, les ordinateurs personnels ont fêté leurs 25 ans. Voyons comment ils ont changé au fil des années. Le premier d'entre eux, équipé d'un microprocesseur Intel, fonctionnait avec une fréquence d'horloge de seulement 4,77 MHz et disposait de 16 Ko de RAM. Les PC modernes équipés d'un microprocesseur Pentium 4, créé en 2001, ont une fréquence d'horloge de 3 à 4 GHz, une RAM de 512 Mo - 1 Go et une mémoire à long terme (disque dur) d'une capacité de dizaines et centaines de Go et même 1 téraoctet. Des progrès aussi gigantesques n’ont été observés dans aucune branche technologique, à l’exception de l’informatique numérique. Si les mêmes progrès avaient été réalisés en augmentant la vitesse des avions, ils voleraient depuis longtemps à la vitesse de la lumière.

Des millions d’ordinateurs sont utilisés dans presque tous les secteurs de l’économie, de l’industrie, de la science, de la technologie, de la pédagogie et de la médecine.

Les principales raisons de ces progrès sont les taux inhabituellement élevés de microminiaturisation des appareils électroniques numériques et les progrès de la programmation qui ont rendu la « communication » des utilisateurs ordinaires avec des ordinateurs personnels simple et pratique.