L'histoire du développement de la technologie informatique de la génération informatique est brève. Histoire mar. Premiers appareils et appareils de comptage


Le besoin de dispositifs permettant d’accélérer le processus de comptage est apparu chez l’homme il y a des milliers d’années. À l’époque, on utilisait pour cela des moyens simples, comme des bâtons de comptage. Plus tard, est apparu le boulier, mieux connu sous le nom de boulier. Il permettait d'effectuer uniquement les opérations arithmétiques les plus simples. Beaucoup de choses ont changé depuis. Presque tous les foyers ont un ordinateur et un smartphone dans leur poche. Tout cela peut être regroupé sous le nom général « Technologie informatique » ou « Technologie informatique ». Dans cet article vous en apprendrez un peu plus sur l’histoire de son développement.

1623 Wilhelm Schickard pense : « Pourquoi n’inventerais-je pas la première machine à calculer ? » Et il l'invente. Il fabrique un appareil mécanique capable d'effectuer des opérations arithmétiques de base (addition, multiplication, division et soustraction) et fonctionne à l'aide d'engrenages et de cylindres.

1703 Gottfried Wilhelm Leibniz décrit le système de nombres binaires dans son traité « Explication de l'Arithmtique Binaire », qui est traduit en russe par « Explication de l'arithmétique binaire ». La mise en œuvre des ordinateurs qui l'utilisent est beaucoup plus simple, et Leibniz lui-même le savait. En 1679, il créa le dessin d'un ordinateur binaire. Mais dans la pratique, le premier dispositif de ce type n’est apparu qu’au milieu du 20e siècle.

1804 Les cartes perforées (cartes perforées) sont apparues pour la première fois. Leur utilisation s'est poursuivie jusque dans les années 1970. Ce sont des feuilles de carton fin percées de trous à certains endroits. Des informations ont été enregistrées par diverses séquences de ces trous.

1820 Charles Xavier Thomas (oui, presque comme le professeur X) lance la Thomas Adding Machine, qui est entrée dans l'histoire comme le premier appareil de comptage produit en série.

1835 Charles Babbage veut inventer son propre moteur analytique et le décrit. Initialement, le but de l'appareil était de calculer des tables logarithmiques avec une grande précision, mais Babbage a ensuite changé d'avis. Maintenant, son rêve était une voiture à usage général. A cette époque, la création d'un tel appareil était tout à fait possible, mais travailler avec Babbage s'est avéré difficile en raison de son caractère. En raison de désaccords, le projet a été abandonné.

1845 Israel Staffel crée le tout premier appareil capable d'extraire les racines carrées des nombres.

1905 Percy Ludgert publie une conception pour un ordinateur mécanique programmable.

1936 Konrad Zuse décide de créer son propre ordinateur. Il l'appelle Z1.

1941 Konrad Zuse lance le Z3, le premier ordinateur au monde contrôlé par logiciel. Par la suite, plusieurs dizaines d'appareils supplémentaires de la série Z ont été lancés.

1961 Lancement d'ANITA Mark VII, la première calculatrice entièrement électronique au monde.

Quelques mots sur les générations informatiques.

1ère génération. Ce sont ce qu'on appelle des ordinateurs à tubes. Ils fonctionnent à l'aide de tubes à vide. Le premier appareil de ce type a été créé au milieu du 20e siècle.

2ème génération. Tout le monde utilisait des ordinateurs de première génération, jusqu'à ce que soudain, en 1947, Walter Brattain et John Bardeen inventent une chose très importante : le transistor. C'est ainsi qu'est apparue la deuxième génération d'ordinateurs. Ils consommaient beaucoup moins d’énergie et étaient plus productifs. Ces dispositifs étaient courants dans les années 50 et 60 du XXe siècle, jusqu'à l'invention du circuit intégré en 1958.

3ème génération. Le fonctionnement de ces ordinateurs était basé sur des circuits intégrés. Chacun de ces circuits contient des centaines de millions de transistors. Cependant, la création de la troisième génération n’a pas arrêté la production d’ordinateurs de deuxième génération.

4ème génération. En 1969, Ted Hoff a eu l'idée de remplacer de nombreux circuits intégrés par un seul petit appareil. On l'appellera plus tard un microcircuit. Grâce à cela, il est devenu possible de créer de très petits micro-ordinateurs. Le premier appareil de ce type a été lancé par Intel. Et dans les années 80, les microprocesseurs et les micro-ordinateurs se sont révélés être les plus courants. Nous les utilisons encore maintenant.

Il s'agissait d'un bref historique du développement de la technologie informatique et de la technologie informatique. J'espère avoir réussi à vous intéresser. Au revoir!

Dès qu'une personne découvrait le concept de « quantité », elle commençait immédiatement à sélectionner des outils qui optimiseraient et faciliteraient le comptage. Aujourd'hui, des ordinateurs super puissants, basés sur les principes des calculs mathématiques, traitent, stockent et transmettent l'information - la ressource et le moteur le plus important du progrès humain. Il n'est pas difficile de se faire une idée de la manière dont s'est déroulé le développement de la technologie informatique en considérant brièvement les principales étapes de ce processus.

Les principales étapes du développement de la technologie informatique

La classification la plus répandue propose de mettre en évidence les principales étapes du développement de la technologie informatique sur une base chronologique :

  • Scène manuelle. Elle a commencé à l’aube de l’ère humaine et s’est poursuivie jusqu’au milieu du XVIIe siècle. Durant cette période, les bases du comptage émergent. Plus tard, avec la formation des systèmes de numérotation positionnelle, des dispositifs sont apparus (boulier, boulier et plus tard une règle à calcul) qui rendaient possibles les calculs par chiffres.
  • Scène mécanique. Elle a commencé au milieu du XVIIe siècle et a duré presque jusqu'à la fin du XIXe siècle. Le niveau de développement de la science au cours de cette période a permis de créer des dispositifs mécaniques qui effectuent des opérations arithmétiques de base et mémorisent automatiquement les chiffres les plus élevés.
  • L'étape électromécanique est la plus courte de toutes celles qui unissent l'histoire du développement de la technologie informatique. Cela n’a duré qu’une soixantaine d’années. Il s'agit de la période comprise entre l'invention de la première tabulatrice en 1887 et 1946, date à laquelle est apparu le tout premier ordinateur (ENIAC). De nouvelles machines, dont le fonctionnement reposait sur un entraînement électrique et un relais électrique, permettaient d'effectuer des calculs avec une rapidité et une précision beaucoup plus grandes, mais le processus de comptage devait encore être contrôlé par une personne.
  • L'étape électronique a commencé dans la seconde moitié du siècle dernier et se poursuit aujourd'hui. C'est l'histoire de six générations d'ordinateurs électroniques - depuis les toutes premières unités géantes, basées sur des tubes à vide, jusqu'aux supercalculateurs modernes ultra-puissants dotés d'un grand nombre de processeurs fonctionnant en parallèle, capables d'exécuter simultanément de nombreuses commandes.

Les étapes de développement de la technologie informatique sont réparties selon un principe chronologique plutôt arbitraire. À l'époque où certains types d'ordinateurs étaient utilisés, les conditions préalables à l'émergence des éléments suivants étaient activement créées.

Les tout premiers appareils de comptage

Le premier outil de comptage connu dans l’histoire du développement de la technologie informatique est celui des dix doigts des mains humaines. Les résultats du comptage étaient initialement enregistrés à l'aide des doigts, des encoches sur le bois et la pierre, des bâtons spéciaux et des nœuds.

Avec l’avènement de l’écriture, diverses manières d’écrire les nombres sont apparues et se sont développées, et des systèmes de numération positionnelle ont été inventés (décimal en Inde, sexagésimal à Babylone).

Vers le 4ème siècle avant JC, les Grecs de l’Antiquité ont commencé à compter à l’aide d’un boulier. Initialement, il s’agissait d’une tablette plate d’argile sur laquelle étaient appliquées des rayures avec un objet pointu. Le comptage était effectué en plaçant de petites pierres ou autres petits objets sur ces rayures dans un certain ordre.

En Chine, au 4ème siècle après JC, un boulier à sept pointes est apparu - suanpan (suanpan). Des fils ou des cordes – neuf ou plus – étaient tendus sur un cadre rectangulaire en bois. Un autre fil (corde), tendu perpendiculairement aux autres, divisait le suanpan en deux parties inégales. Dans le plus grand compartiment, appelé « terre », il y avait cinq os enfilés sur des fils, dans le plus petit compartiment, appelé « ciel », il y en avait deux. Chacun des fils correspondait à une décimale.

Le boulier soroban traditionnel est devenu populaire au Japon depuis le 16ème siècle, arrivant de Chine. Au même moment, le boulier est apparu en Russie.

Au XVIIe siècle, à partir des logarithmes découverts par le mathématicien écossais John Napier, l'Anglais Edmond Gunter invente la règle à calcul. Cet appareil a été constamment amélioré et a survécu jusqu'à ce jour. Il permet de multiplier et diviser des nombres, d'élever des puissances, de déterminer des logarithmes et des fonctions trigonométriques.

La règle à calcul est devenue un appareil qui a complété le développement de la technologie informatique au stade manuel (pré-mécanique).

Les premiers appareils de calcul mécaniques

En 1623, le scientifique allemand Wilhelm Schickard créa la première « calculatrice » mécanique, qu'il appela horloge à compter. Le mécanisme de cet appareil ressemblait à une horloge ordinaire, composée d'engrenages et de pignons. Cependant, cette invention n’a été connue qu’au milieu du siècle dernier.

L'invention de la machine à additionner Pascalina en 1642 a constitué un pas de géant dans le domaine de la technologie informatique. Son créateur, le mathématicien français Blaise Pascal, a commencé à travailler sur cet appareil alors qu'il n'avait même pas 20 ans. "Pascalina" était un dispositif mécanique sous la forme d'une boîte avec un grand nombre d'engrenages interconnectés. Les nombres à ajouter étaient entrés dans la machine en tournant des roues spéciales.

En 1673, le mathématicien et philosophe saxon Gottfried von Leibniz a inventé une machine qui effectuait les quatre opérations mathématiques de base et pouvait extraire la racine carrée. Le principe de son fonctionnement reposait sur le système de nombres binaires, spécialement inventé par le scientifique.

En 1818, le Français Charles (Karl) Xavier Thomas de Colmar, s'appuyant sur les idées de Leibniz, invente une machine à additionner capable de multiplier et de diviser. Et deux ans plus tard, l'Anglais Charles Babbage commença à construire une machine capable d'effectuer des calculs avec une précision de 20 décimales. Ce projet est resté inachevé, mais en 1830 son auteur en a développé un autre : un moteur analytique permettant d'effectuer des calculs scientifiques et techniques précis. La machine était censée être contrôlée par un logiciel et des cartes perforées avec différents emplacements de trous devaient être utilisées pour saisir et sortir des informations. Le projet de Babbage prévoyait le développement de la technologie informatique électronique et les problèmes qui pourraient être résolus grâce à son aide.

Il est à noter que la renommée du premier programmeur au monde appartient à une femme - Lady Ada Lovelace (née Byron). C'est elle qui a créé les premiers programmes pour l'ordinateur de Babbage. L'un des langages informatiques porte par la suite son nom.

Développement des premiers analogues informatiques

En 1887, l'histoire du développement de la technologie informatique entre dans une nouvelle étape. L'ingénieur américain Herman Hollerith (Hollerith) a réussi à concevoir le premier ordinateur électromécanique - la tabulatrice. Son mécanisme comportait un relais, ainsi que des compteurs et une boîte de tri spéciale. L'appareil lisait et triait les enregistrements statistiques réalisés sur des cartes perforées. Par la suite, l'entreprise fondée par Hollerith est devenue l'épine dorsale du géant informatique de renommée mondiale IBM.

En 1930, l'Américain Vannovar Bush crée un analyseur différentiel. Il était alimenté par l’électricité et des tubes à vide étaient utilisés pour stocker les données. Cette machine était capable de trouver rapidement des solutions à des problèmes mathématiques complexes.

Six ans plus tard, le scientifique anglais Alan Turing développa le concept de machine, qui devint la base théorique des ordinateurs modernes. Il possédait toutes les propriétés principales de la technologie informatique moderne : il pouvait effectuer étape par étape des opérations programmées dans la mémoire interne.

Un an plus tard, George Stibitz, un scientifique américain, inventait le premier appareil électromécanique du pays capable d'effectuer une addition binaire. Ses opérations étaient basées sur l'algèbre booléenne - logique mathématique créée au milieu du XIXe siècle par George Boole : l'utilisation des opérateurs logiques AND, OR et NOT. Plus tard, l'additionneur binaire deviendra partie intégrante de l'ordinateur numérique.

En 1938, Claude Shannon, employé de l'Université du Massachusetts, a exposé les principes de la conception logique d'un ordinateur utilisant des circuits électriques pour résoudre des problèmes d'algèbre booléenne.

Le début de l'ère informatique

Les gouvernements des pays impliqués dans la Seconde Guerre mondiale étaient conscients du rôle stratégique de l’informatique dans la conduite des opérations militaires. Ce fut l’impulsion du développement et de l’émergence parallèle de la première génération d’ordinateurs dans ces pays.

Konrad Zuse, un ingénieur allemand, fut un pionnier dans le domaine de l'ingénierie informatique. En 1941, il crée le premier ordinateur contrôlé par un programme. La machine, appelée Z3, était construite sur des relais téléphoniques et ses programmes étaient codés sur une bande perforée. Cet appareil était capable de fonctionner dans le système binaire, ainsi que de fonctionner avec des nombres à virgule flottante.

Le prochain modèle de la machine de Zuse, le Z4, est officiellement reconnu comme le premier ordinateur programmable réellement fonctionnel. Il est également entré dans l’histoire en tant que créateur du premier langage de programmation de haut niveau, appelé Plankalküll.

En 1942, les chercheurs américains John Atanasoff (Atanasoff) et Clifford Berry ont créé un appareil informatique fonctionnant avec des tubes à vide. La machine utilisait également du code binaire et pouvait effectuer un certain nombre d’opérations logiques.

En 1943, dans un laboratoire du gouvernement anglais, dans une atmosphère de secret, le premier ordinateur, appelé « Colossus », fut construit. Au lieu de relais électromécaniques, 2 000 tubes électroniques ont été utilisés pour stocker et traiter les informations. Il était destiné à déchiffrer et décrypter le code des messages secrets transmis par la machine de cryptage allemande Enigma, largement utilisée par la Wehrmacht. L’existence de cet appareil a longtemps été gardée dans la plus stricte confidentialité. Après la fin de la guerre, l'ordre de sa destruction fut signé personnellement par Winston Churchill.

Développement architectural

En 1945, le mathématicien germano-hongrois John (Janos Lajos) von Neumann créa le prototype de l'architecture des ordinateurs modernes. Il a proposé d’écrire un programme sous forme de code directement dans la mémoire de la machine, ce qui implique un stockage conjoint des programmes et des données dans la mémoire de l’ordinateur.

L'architecture de Von Neumann constitue la base du premier ordinateur électronique universel, ENIAC, créé à cette époque aux États-Unis. Ce géant pesait environ 30 tonnes et était situé sur une superficie de 170 mètres carrés. 18 000 lampes ont été utilisées pour le fonctionnement de la machine. Cet ordinateur pouvait effectuer 300 opérations de multiplication ou 5 000 additions en une seconde.

Le premier ordinateur programmable universel d'Europe a été créé en 1950 en Union soviétique (Ukraine). Un groupe de scientifiques de Kiev, dirigé par Sergei Alekseevich Lebedev, a conçu une petite machine à calculer électronique (MESM). Sa vitesse était de 50 opérations par seconde, il contenait environ 6 000 tubes à vide.

En 1952, la technologie informatique nationale a été reconstituée avec BESM, une grande machine à calculer électronique, également développée sous la direction de Lebedev. Cet ordinateur, qui effectuait jusqu'à 10 000 opérations par seconde, était à l'époque le plus rapide d'Europe. Les informations étaient saisies dans la mémoire de la machine à l'aide d'une bande de papier perforée et les données étaient sorties par impression photo.

Au cours de la même période, une série de grands ordinateurs a été produite en URSS sous le nom général « Strela » (l'auteur du développement était Yuri Yakovlevich Bazilevsky). Depuis 1954, la production en série de l'ordinateur universel « Oural » a commencé à Penza sous la direction de Bashir Rameev. Les derniers modèles étaient compatibles entre eux sur le plan matériel et logiciel, il existait un large choix de périphériques vous permettant d'assembler des machines de différentes configurations.

Transistors. Sortie des premiers ordinateurs série

Cependant, les lampes tombaient en panne très rapidement, ce qui rendait très difficile le travail avec la machine. Le transistor, inventé en 1947, a réussi à résoudre ce problème. Utilisant les propriétés électriques des semi-conducteurs, il effectuait les mêmes tâches que les tubes à vide, mais occupait beaucoup moins de place et ne consommait pas autant d'énergie. Parallèlement à l'avènement des noyaux de ferrite pour organiser la mémoire des ordinateurs, l'utilisation de transistors a permis de réduire considérablement la taille des machines, les rendant encore plus fiables et plus rapides.

En 1954, la société américaine Texas Instruments commença à produire en masse des transistors et, deux ans plus tard, le premier ordinateur de deuxième génération construit à partir de transistors, le TX-O, apparut dans le Massachusetts.

Au milieu du siècle dernier, une partie importante des organisations gouvernementales et des grandes entreprises utilisaient des ordinateurs pour des calculs scientifiques, financiers et techniques et pour travailler avec de grandes quantités de données. Peu à peu, les ordinateurs ont acquis des fonctionnalités qui nous sont familières aujourd'hui. Durant cette période, sont apparus des traceurs, des imprimantes et des supports de stockage sur disques et bandes magnétiques.

L'utilisation active de la technologie informatique a conduit à une expansion de ses domaines d'application et a nécessité la création de nouvelles technologies logicielles. Des langages de programmation de haut niveau sont apparus qui permettent de transférer des programmes d'une machine à une autre et simplifient le processus d'écriture de code (Fortran, Cobol et autres). Des programmes de traduction spéciaux sont apparus qui convertissent le code de ces langages en commandes directement perceptibles par la machine.

L'émergence des circuits intégrés

Dans les années 1958-1960, grâce aux ingénieurs américains Robert Noyce et Jack Kilby, le monde a découvert l'existence des circuits intégrés. Des transistors miniatures et d'autres composants, parfois jusqu'à des centaines ou des milliers, étaient montés sur une base de cristal de silicium ou de germanium. Les puces, d’une taille d’un peu plus d’un centimètre, étaient beaucoup plus rapides que les transistors et consommaient beaucoup moins d’énergie. L'histoire du développement de la technologie informatique relie leur apparition à l'émergence de la troisième génération d'ordinateurs.

En 1964, IBM a lancé le premier ordinateur de la famille SYSTEM 360, basé sur des circuits intégrés. A partir de cette époque, on peut compter sur la production massive d'ordinateurs. Au total, plus de 20 000 exemplaires de cet ordinateur ont été produits.

En 1972, l'URSS a développé l'ordinateur ES (série unifiée). Il s'agissait de complexes standardisés pour le fonctionnement de centres informatiques dotés d'un système de commande commun. Le système américain IBM 360 a été pris comme base.

L'année suivante, DEC lance le mini-ordinateur PDP-8, le premier projet commercial dans ce domaine. Le coût relativement faible des mini-ordinateurs a permis aux petites organisations de les utiliser.

Durant la même période, le logiciel a été constamment amélioré. Des systèmes d'exploitation ont été développés pour prendre en charge un maximum de périphériques externes et de nouveaux programmes sont apparus. En 1964, ils développent BASIC, un langage spécialement conçu pour former les programmeurs débutants. Cinq ans plus tard, Pascal est apparu, ce qui s'est avéré très pratique pour résoudre de nombreux problèmes appliqués.

Ordinateur personnel

Après 1970, la production de la quatrième génération d’ordinateurs a commencé. Le développement de la technologie informatique à l'heure actuelle se caractérise par l'introduction de grands circuits intégrés dans la production informatique. De telles machines pouvaient désormais effectuer des milliers de millions d’opérations de calcul en une seconde et leur capacité de RAM était passée à 500 millions de bits. Une réduction significative du coût des micro-ordinateurs a conduit au fait que la possibilité de les acheter est progressivement devenue accessible à l'individu moyen.

Apple a été l'un des premiers fabricants d'ordinateurs personnels. Ses créateurs, Steve Jobs et Steve Wozniak, ont conçu le premier modèle de PC en 1976, en lui donnant le nom d'Apple I. Il ne coûtait que 500 dollars. Un an plus tard, le prochain modèle de cette société était présenté - Apple II.

L'ordinateur de cette époque s'apparente pour la première fois à un appareil électroménager : en plus de sa taille compacte, il présente un design élégant et une interface conviviale. La prolifération des ordinateurs personnels à la fin des années 1970 a entraîné une baisse significative de la demande d'ordinateurs centraux. Ce fait a sérieusement inquiété leur fabricant, IBM, et en 1979, il a lancé son premier PC sur le marché.

Deux ans plus tard, le premier micro-ordinateur de l'entreprise à architecture ouverte est apparu, basé sur le microprocesseur 16 bits 8088 fabriqué par Intel. L'ordinateur était équipé d'un écran monochrome, de deux lecteurs de disquettes de cinq pouces et de 64 kilo-octets de RAM. Pour le compte de la société créatrice, Microsoft a spécialement développé un système d'exploitation pour cette machine. De nombreux clones d'IBM PC sont apparus sur le marché, ce qui a stimulé la croissance de la production industrielle d'ordinateurs personnels.

En 1984, Apple a développé et lancé un nouvel ordinateur : le Macintosh. Son système d'exploitation était extrêmement convivial : il présentait les commandes sous forme d'images graphiques et permettait de les saisir à l'aide d'une souris. Cela a rendu l'ordinateur encore plus accessible, puisqu'aucune compétence particulière n'était désormais requise de la part de l'utilisateur.

Certaines sources datent les ordinateurs de la cinquième génération de technologie informatique de 1992 à 2013. En bref, leur concept principal est formulé comme suit : ce sont des ordinateurs créés sur la base de microprocesseurs très complexes, ayant une structure parallèle-vecteur, qui permet d'exécuter simultanément des dizaines de commandes séquentielles intégrées au programme. Des machines dotées de plusieurs centaines de processeurs fonctionnant en parallèle permettent de traiter les données avec encore plus de précision et de rapidité, ainsi que de créer des réseaux efficaces.

Le développement de la technologie informatique moderne permet déjà de parler d'ordinateurs de sixième génération. Il s'agit d'ordinateurs électroniques et optoélectroniques fonctionnant sur des dizaines de milliers de microprocesseurs, caractérisés par un parallélisme massif et modélisant l'architecture des systèmes biologiques neuronaux, ce qui leur permet de reconnaître avec succès des images complexes.

Après avoir systématiquement examiné toutes les étapes du développement de la technologie informatique, il convient de noter un fait intéressant : les inventions qui ont fait leurs preuves dans chacune d'elles ont survécu jusqu'à ce jour et continuent d'être utilisées avec succès.

Cours d'informatique

Il existe différentes options pour classer les ordinateurs.

Ainsi, selon leur destination, les ordinateurs sont répartis :

  • aux universels - ceux qui sont capables de résoudre une grande variété de problèmes mathématiques, économiques, d'ingénierie, techniques, scientifiques et autres ;
  • orienté problème - résoudre des problèmes d'une direction plus étroite, associés, en règle générale, à la gestion de certains processus (enregistrement de données, accumulation et traitement de petites quantités d'informations, réalisation de calculs conformément à des algorithmes simples). Ils disposent de ressources logicielles et matérielles plus limitées que le premier groupe d’ordinateurs ;
  • les ordinateurs spécialisés résolvent généralement des tâches strictement définies. Ils ont une structure hautement spécialisée et, avec une complexité de dispositif et de contrôle relativement faible, sont assez fiables et productifs dans leur domaine. Il s'agit par exemple de contrôleurs ou d'adaptateurs qui contrôlent un certain nombre d'appareils, ainsi que de microprocesseurs programmables.

En fonction de leur taille et de leur capacité de production, les équipements informatiques électroniques modernes sont divisés en :

  • à l'ultra-grand (supercalculateurs) ;
  • gros ordinateurs;
  • petits ordinateurs;
  • ultra-petit (micro-ordinateurs).

Ainsi, nous avons vu que les dispositifs, d'abord inventés par l'homme pour prendre en compte les ressources et les valeurs, puis pour effectuer rapidement et avec précision des calculs et des opérations informatiques complexes, se développaient et s'amélioraient constamment.

Moyens techniques de mise en œuvre des processus d'information

L'histoire du développement du VT comporte plusieurs périodes : mécanique, électromécanique et électronique.

Pour effectuer des calculs dans l'ancienne Babylone (environ 3 000 ans avant JC), puis dans la Grèce antique et la Rome antique (IVe siècle avant JC), des planches de comptage appelées abaque. La planche du boulier était une plaque d'argile avec des évidements dans lesquels étaient placés des cailloux. Par la suite, les évidements ont été remplacés par du fil avec des os cordés (le prototype du comptage).

Au XVIIe siècle en Europe, les mathématiciens (W. Schiccard (1623 ᴦ.) et Blaise Pascal (1642 ᴦ.), G. Leibniz (1671 ᴦ.)) inventèrent machines mécaniques, capable d'effectuer automatiquement des opérations arithmétiques (un prototype de machine à additionner).

Dans le premier tiers du XIXe siècle, le mathématicien anglais C. Babbage a développé un projet de dispositif informatique mécanique automatique programmable connu sous le nom de moteur analytique de Babbage. La marraine du projet, la comtesse Ada Augusta Lovelace, était la programmeuse de ce « moteur analytique ».

G. Hollerith en 1888. créé électromécanique une machine composée d'une perforatrice, d'un trieur de cartes perforées et d'une machine à additionner appelée tabulatrice. Cette machine a été utilisée pour la première fois aux États-Unis lors du traitement des résultats du recensement.

La rapidité des calculs dans les machines mécaniques et électromécaniques était limitée, et donc dans les années 1930. le développement a commencé électronique ordinateurs dont la base élémentaire était un tube à vide à trois électrodes.

En 1946ᴦ. à l'université ᴦ. En Pennsylvanie (États-Unis), un ordinateur électronique a été construit, appelé UNIAK. La machine pesait 30 tonnes, occupait une superficie de 200 mètres carrés et contenait 18 000 lampes. La programmation a été réalisée en installant des interrupteurs et en connectant des connecteurs. En conséquence, même le programme le plus simple prenait beaucoup de temps à créer et à exécuter. Les difficultés de programmation sur UNIAK ont incité John von Neumann, consultant sur le projet, à développer de nouveaux principes pour construire une architecture informatique.

En URSS, le premier ordinateur a été créé en 1948.

L’histoire du développement informatique est généralement considérée par génération.

Première génération(1946-1960) - ϶ᴛᴏ l'époque de la formation de l'architecture des machines de type von Neumann, construites sur des tubes à vide avec une vitesse de 10 à 20 000 op/s. Les ordinateurs de première génération étaient encombrants et peu fiables. les outils logiciels étaient représentés par des langages machine.

En 1950ᴦ. En URSS, la MESM (petite machine à calculer électronique) a été mise en service, et deux ans plus tard, une grande machine à calculer électronique (10 000 op/s) est apparue.

Deuxième génération(1960 – 1964) - machines construites sur des transistors avec des vitesses allant jusqu'à des centaines de milliers d'opérations par seconde. Des tambours magnétiques étaient utilisés pour organiser la mémoire externe et des noyaux magnétiques pour la mémoire principale. Parallèlement, se développent des langages algorithmiques de haut niveau comme Algol, Cobol, Fortran, qui permettent de composer des programmes sans tenir compte du type de machine. Le premier ordinateur présentant les caractéristiques distinctives de la deuxième génération fut l'IBM 704.

Troisième génération(1964 – 1970) se caractérisent par le fait qu’à la place des transistors, des circuits intégrés (CI) et des mémoires à semi-conducteurs ont commencé à être utilisés.

La plupart des machines appartenant à la troisième génération en termes de caractéristiques faisaient partie de la série (famille) de machines « System/360 » (analogue de l'ordinateur ES), commercialisée par IBM au milieu des années 60. Les machines de cette série avaient une architecture unique et étaient compatibles avec les logiciels.

À cette époque, le premier supercalculateur BESM 6 est apparu en URSS, avec une productivité de 1 million d'opérations/s.

Quatrième génération(1970 – 1980) - ϶ᴛᴏ machines construites sur de grands circuits intégrés (LSI). De tels circuits contiennent jusqu'à plusieurs dizaines de milliers d'éléments par puce. Les ordinateurs de cette génération effectuent des dizaines, voire des centaines de millions d'opérations par seconde.

En 1971. Le premier microprocesseur à quatre bits au monde Intel 4004, contenant 2 300 transistors sur une puce, est apparu, et un an plus tard, le processeur à huit bits Intel 8008. La création de microprocesseurs a servi de base au développement d'un ordinateur personnel (PC) , ᴛ.ᴇ. un appareil qui remplit les mêmes fonctions qu'un grand ordinateur, mais est conçu pour être utilisé par un seul utilisateur.

1973ᴦ. Xerox a créé le premier prototype d'ordinateur personnel.

1974ᴦ. le premier ordinateur personnel Altair-8800 distribué commercialement est apparu, pour lequel à la fin de 1975 ᴦ. Paul Allen et Bill Gates ont écrit un interprète pour le langage BASIC.

En août 1981ᴦ. IBM a sorti l'IBM PC. Le nouveau microprocesseur Intel 8088 16 bits de l'époque a été utilisé comme microprocesseur principal. Le PC a été construit conformément aux principes de l'architecture ouverte. Les utilisateurs ont pu mettre à niveau leurs ordinateurs de manière indépendante et les équiper d'appareils supplémentaires de différents fabricants. Après un ou deux ans, le PC IBM a pris une position de leader sur le marché, remplaçant les modèles informatiques 8 bits.

Il existe aujourd'hui de nombreux types d'ordinateurs classés en fonction de leur base d'éléments, de leurs principes de fonctionnement, de leur coût, de leur taille, de leurs performances, de leur objectif et de leurs domaines d'application.

Supercalculateur Et ordinateurs centraux(ordinateurs centraux) - utilisés pour des calculs scientifiques complexes ou pour traiter de gros flux d'informations dans les grandes entreprises. Οʜᴎ, en règle générale, sont les principaux ordinateurs des réseaux informatiques d'entreprise.

Mini- Et micro-ordinateur utilisé pour créer des systèmes de contrôle pour les grandes et moyennes entreprises.

Ordinateur personnel destiné à l'utilisateur final. À leur tour, les PC sont divisés en modèles de bureau (ordinateur de bureau), portables (ordinateurs portables) et de poche (ordinateur de poche).

Histoire du développement de la technologie informatique - concept et types. Classement et caractéristiques de la catégorie « Histoire du développement de la technologie informatique » 2017, 2018.

  • - Histoire du développement de la technologie informatique

    Le besoin d’automatiser le traitement des données, y compris les calculs, est apparu il y a longtemps. On pense qu'historiquement, le premier appareil de comptage, et par conséquent le plus simple, était le boulier, qui fait référence aux appareils de comptage portatifs. Boulier - tableau de comptage...


  • - Histoire du développement de la technologie informatique

    L’histoire du développement de la technologie informatique remonte à loin. Au 14ème siècle. Léonard de Vinci a développé une conception pour un dispositif d'addition de 13 bits. Le modèle actuel a été construit en 1642 par le célèbre physicien, mathématicien et ingénieur français Blaise Pascal. Son... .


  • - BREF HISTORIQUE DU DÉVELOPPEMENT DU GÉNIE INFORMATIQUE.

    1623 La première « machine à compter » créée par William Schickard. Cet appareil assez encombrant pouvait appliquer des opérations arithmétiques simples (addition, soustraction) avec des nombres à 7 chiffres. 1644 La « Calculatrice » de Blaise Pascal est la première machine à calculer véritablement populaire...

  • Histoire de la création et du développement de la technologie informatique

    En informatique, il existe une périodisation particulière du développement des ordinateurs électroniques. Un ordinateur est classé dans une génération ou une autre en fonction du type d'éléments principaux qui y sont utilisés ou de la technologie de leur fabrication. Il est clair que les frontières des générations en termes de temps sont très floues, puisqu'en même temps des ordinateurs de différents types étaient effectivement produits ; Pour une machine individuelle, la question de savoir si elle appartient à une génération ou à une autre est résolue tout simplement.

    Même à l'époque des cultures anciennes, les gens devaient résoudre des problèmes liés aux calculs commerciaux, au calcul du temps, à la détermination de la superficie du terrain, etc. L'augmentation du volume de ces calculs a même conduit au fait que des personnes spécialement formées étaient invitées d'un pays à l'autre, maîtrisant bien les techniques de comptage arithmétique. Par conséquent, tôt ou tard, des appareils devaient apparaître pour faciliter les calculs quotidiens. Ainsi, dans la Grèce antique et dans la Rome antique, des appareils de comptage appelés bouliers ont été créés. Le boulier est également appelé boulier romain. Ces bouliers étaient une planche en os, en pierre ou en bronze avec des rainures appelées rayures. Il y avait des dominos dans les recoins, et le comptage se faisait en déplaçant les dominos.

    Dans les pays de l'Orient ancien, il y avait des bouliers chinois. Il y avait cinq ou deux dominos sur chaque fil ou fil de ce boulier. Le comptage se faisait par unités et par cinq. En Russie, le boulier russe, apparu au XVIe siècle, était utilisé pour les calculs arithmétiques, mais on trouve encore à certains endroits des bouliers aujourd'hui.

    Le développement des appareils de comptage a suivi le rythme des progrès des mathématiques. Peu après la découverte des logarithmes en 1623, la règle à calcul fut inventée par le mathématicien anglais Edmond Gunter. La règle à calcul était destinée à avoir une longue vie : du XVIIe siècle à nos jours.

    Cependant, ni le boulier, ni le boulier, ni la règle à calcul ne signifient une mécanisation du processus de calcul. Au XVIIe siècle, l'éminent scientifique français Blaise Pascal a inventé un appareil de calcul fondamentalement nouveau : la machine arithmétique. B. Pascal a basé son travail sur l'idée bien connue d'effectuer des calculs à l'aide d'engrenages métalliques. En 1645, il construisit la première machine à additionner et en 1675, Pascal réussit à créer une véritable machine effectuant les quatre opérations arithmétiques. Presque simultanément avec Pascal en 1660 - 1680. La machine à calculer a été conçue par le grand mathématicien allemand Gottfierd Leibniz.

    Les machines à calculer de Pascal et Leibniz sont devenues le prototype de la machine à calculer. Le premier arithmomètre à quatre opérations arithmétiques, qui trouva une application arithmétique, fut construit seulement cent ans plus tard, en 1790, par l'horloger allemand Hahn. Par la suite, le dispositif de la machine à additionner a été amélioré par de nombreux mécaniciens d'Angleterre, de France, d'Italie, de Russie et de Suisse. Les arithmomètres étaient utilisés pour effectuer des calculs complexes lors de la conception et de la construction de navires. Ponts, bâtiments, lors de transactions financières. Mais la productivité des machines à additionner restait faible ; l’automatisation des calculs était une exigence urgente de l’époque.

    En 1833, le scientifique anglais Charles Babage, impliqué dans la compilation de tableaux de navigation, développa un projet de « moteur analytique ». Selon son plan, cette machine devait devenir une machine à calculer géante contrôlée par programme. La machine de Babage comprenait également des dispositifs d'arithmétique et de stockage. Sa machine est devenue le prototype des futurs ordinateurs. Mais il utilisait des composants loin d’être parfaits ; par exemple, il utilisait des engrenages pour mémoriser les chiffres d’un nombre décimal. Babidge n'a pas réussi à mettre en œuvre son projet en raison d'un développement technologique insuffisant, et le « moteur analytique » a été oublié pendant un certain temps.

    Seulement 100 ans plus tard, la machine de Babidge a attiré l'attention des ingénieurs. À la fin des années 30 du 20e siècle, l'ingénieur allemand Konrad Zuse a développé la première machine numérique binaire Z1. Il utilisait largement des relais électromécaniques, c'est-à-dire des interrupteurs mécaniques actionnés par le courant électrique. En 1941, K. Wujie crée la machine Z3, entièrement contrôlée par logiciel.

    En 1944, l'Américain Howard Aiken, dans l'une des entreprises IBM, construisit le Mark-1, une machine puissante pour l'époque. Cette machine utilisait des éléments mécaniques - des roues de comptage - pour représenter les nombres, et des relais électromécaniques étaient utilisés pour le contrôle.

    Générations informatiques

    Il est pratique de décrire l'histoire du développement des ordinateurs en utilisant l'idée de générations d'ordinateurs. Chaque génération d'ordinateurs se caractérise par des caractéristiques et des capacités de conception. Commençons par décrire chacune des générations, mais il faut se rappeler que la division des ordinateurs en générations est conditionnelle, puisque des machines de différents niveaux ont été produites en même temps.

    Première génération

    Un bond en avant dans le développement de la technologie informatique s'est produit dans les années 40, après la Seconde Guerre mondiale, et il a été associé à l'avènement de dispositifs électroniques qualitativement nouveaux - des tubes à vide électroniques, qui fonctionnaient beaucoup plus rapidement que les circuits basés sur des relais électromécaniques, et des relais les machines ont été rapidement remplacées par des machines plus productives et des ordinateurs électroniques (ordinateurs) fiables. L'utilisation des ordinateurs a considérablement élargi l'éventail des problèmes à résoudre. Des problèmes qui n'étaient tout simplement pas posés auparavant sont devenus disponibles : calculs d'ouvrages d'art, calculs de mouvements planétaires, calculs balistiques, etc.

    Le premier ordinateur a été créé entre 1943 et 1946. aux USA et il s'appelait ENIAC. Cette machine contenait environ 18 000 tubes à vide, de nombreux relais électromécaniques et environ 2 000 tubes tombaient en panne chaque mois. Le centre de contrôle de la machine ENIAC, ainsi que d'autres premiers ordinateurs, présentait un sérieux inconvénient: le programme exécutable n'était pas stocké dans la mémoire de la machine, mais était accumulé de manière complexe à l'aide de cavaliers externes.

    En 1945, le célèbre mathématicien et physicien-théoricien von Neumann a formulé les principes généraux de fonctionnement des dispositifs informatiques universels. Selon von Neumann, l’ordinateur était censé être contrôlé par un programme avec exécution séquentielle de commandes, et le programme lui-même devait être stocké dans la mémoire de la machine. Le premier ordinateur doté d’un programme stocké a été construit en Angleterre en 1949.

    En 1951, le MESM a été créé en URSS ; ces travaux ont été réalisés à Kiev à l'Institut d'électrodynamique sous la direction du plus grand concepteur de technologie informatique S. A. Lebedev.

    Les ordinateurs ont été constamment améliorés, grâce à quoi, au milieu des années 50, leurs performances sont passées de plusieurs centaines à plusieurs dizaines de milliers d'opérations par seconde. Cependant, le tube électronique restait l’élément le plus fiable de l’ordinateur. L'utilisation de lampes a commencé à ralentir les progrès de la technologie informatique.

    Par la suite, les dispositifs à semi-conducteurs ont remplacé les lampes, complétant ainsi la première étape du développement informatique. Les ordinateurs de cette étape sont généralement appelés ordinateurs de première génération.

    En effet, les ordinateurs de première génération étaient situés dans de grandes salles informatiques, consommaient beaucoup d’électricité et nécessitaient un refroidissement avec des ventilateurs puissants. Les programmes de ces ordinateurs devaient être écrits en codes machine, et cela ne pouvait être fait que par des spécialistes connaissant les détails de la structure informatique.

    Deuxième génération

    Les développeurs informatiques ont toujours suivi les progrès de la technologie électronique. Lorsque les dispositifs à semi-conducteurs ont remplacé les tubes à vide au milieu des années 50, la conversion des ordinateurs aux semi-conducteurs a commencé.

    Les dispositifs à semi-conducteurs (transistors, diodes) étaient tout d’abord beaucoup plus compacts que leurs prédécesseurs à tubes. Deuxièmement, leur durée de vie était nettement plus longue. Troisièmement, la consommation d’énergie des ordinateurs à semi-conducteurs était nettement inférieure. Avec l’introduction d’éléments numériques sur les dispositifs semi-conducteurs, la création d’ordinateurs de deuxième génération a commencé.

    Grâce à l'utilisation d'une base d'éléments plus avancée, des ordinateurs relativement petits ont commencé à être créés et une division naturelle des ordinateurs en grands, moyens et petits a eu lieu.

    En URSS, les séries de petits ordinateurs « Hrazdan » et « Nairi » ont été développées et largement utilisées. La machine Mir, développée en 1965 à l'Institut de cybernétique de l'Académie des sciences de la RSS d'Ukraine, était unique par son architecture. Il était destiné aux calculs techniques effectués sur un ordinateur par l'utilisateur lui-même sans l'aide d'un opérateur.

    Les ordinateurs de taille moyenne comprenaient des machines domestiques des séries Ural, M-20 et Minsk. Mais le record parmi les machines domestiques de cette génération et l'un des meilleurs au monde était la BESM-6 (« grande machine à calculer électronique », modèle 6), créée par l'équipe de l'académicien S. A. Lebedev. Les performances du BESM-6 étaient de deux à trois ordres de grandeur supérieures à celles des ordinateurs de petite et moyenne taille et s'élevaient à plus d'un million d'opérations par seconde. À l'étranger, les machines de deuxième génération les plus courantes étaient Elliot (Angleterre), Siemens (Allemagne) et Stretch (États-Unis).

    Troisième génération

    Le changement suivant dans les générations d'ordinateurs s'est produit à la fin des années 60, lorsque les composants semi-conducteurs des appareils informatiques ont été remplacés par des circuits intégrés. Un circuit intégré (microcircuit) est une petite plaquette de cristal de silicium sur laquelle sont placés des centaines et des milliers d'éléments : diodes, transistors, condensateurs, résistances, etc.

    L'utilisation de circuits intégrés a permis d'augmenter le nombre d'éléments électroniques dans un ordinateur sans augmenter leurs dimensions réelles. La vitesse de l'ordinateur est passée à 10 millions d'opérations par seconde. De plus, il est devenu possible pour les utilisateurs ordinaires de composer des programmes informatiques, et pas seulement pour les spécialistes - les ingénieurs électroniciens.

    Dans la troisième génération, de grandes séries d'ordinateurs sont apparues, différant par leurs performances et leur objectif. Il s'agit d'une famille de machines IBM360/370 de grande et moyenne taille développée aux États-Unis. En Union soviétique et dans les pays du CAEM, des séries de machines similaires ont été créées : les ordinateurs ES (système unifié d'ordinateurs, machines de grande et moyenne taille), les ordinateurs SM (système de petits ordinateurs) et « Electronics » (système de micro-ordinateurs). ).

    Les tout premiers appareils informatiques étaient des doigts humains. Lorsque ce remède ne suffisait pas, on utilisait des cailloux, des bâtons et des coquillages. En additionnant un tel ensemble en dizaines puis en centaines, une personne a appris à compter et à utiliser des moyens de mesurer les nombres. C'est avec des cailloux et des coquillages que commence l'histoire du développement de la technologie informatique. En les disposant dans différentes colonnes (rangs) et en ajoutant ou en supprimant le nombre de cailloux requis, il était possible d'ajouter et de soustraire de grands nombres. Avec des additions répétées, il était possible d'effectuer même une opération aussi complexe que la multiplication.

    Commence alors l'histoire du développement des moyens. Le premier moyen de calcul fut le boulier inventé en Russie. Dans ceux-ci, les nombres étaient divisés en dizaines à l'aide de guides horizontaux avec des os. Ils sont devenus un assistant indispensable pour les commerçants, les fonctionnaires, les commis et les gestionnaires. Ces gens savaient utiliser le boulier simplement de manière magistrale. Par la suite, un dispositif aussi nécessaire a pénétré en Europe.

    Le tout premier dispositif mécanique de comptage connu dans l'histoire du développement de la technologie informatique était la machine à calculer, construite par l'éminent scientifique français Blaise Pascal en 1642. Son « ordinateur » mécanique pouvait effectuer des opérations telles que l’addition et la soustraction. Cette voiture s'appelait «Pascalina» et consistait en un complexe complet dans lequel étaient montées verticalement des roues numérotées de 0 à 9. Lorsque la roue tournait autour d'un cercle complet, elle accrochait la roue adjacente et la faisait tourner d'un numéro. Le nombre de roues déterminait le nombre de chiffres de l'ordinateur. Si cinq roues y étaient installées, il pourrait déjà effectuer des opérations avec un nombre énorme allant jusqu'à 99999.

    Puis, en 1673, le mathématicien allemand Leibniz créa un appareil capable non seulement de soustraire et d'additionner, mais également de diviser et de multiplier. En revanche, les roues étaient à engrenages et avaient neuf longueurs de dents différentes, ce qui garantissait des actions incroyablement « complexes » comme la multiplication et la division. la technologie connaît de nombreux noms, mais un nom est connu même des non-spécialistes. Il s'agit d'un mathématicien anglais, appelé à juste titre le père de toute la technologie informatique moderne. C'est lui qui a eu l'idée qu'un ordinateur a besoin d'un appareil qui stocke des numéros. De plus, cet appareil doit non seulement stocker des numéros, mais également donner des commandes à l'ordinateur sur ce qu'il doit faire avec ces numéros.

    L'idée de Babbage a constitué la base de la conception et du développement de tous les ordinateurs modernes. Un tel bloc dans un processeur informatique. Cependant, le scientifique n'a laissé aucun dessin ni description de la machine qu'il a inventée. C'est ce qu'a fait un de ses étudiants dans son article qu'il a rédigé en français. L'article a été lu par la comtesse Ada Augusta Lovelace, fille du célèbre poète George Byron, qui l'a traduit en anglais et a développé ses propres programmes pour cette machine. Grâce à elle, l'histoire du développement de la technologie informatique a reçu l'un des langages de programmation les plus avancés - ADA.

    Le XXe siècle a donné un nouvel élan au développement de la technologie informatique associée à l'électricité. Un appareil électronique a été inventé pour stocker les signaux électriques - un déclencheur à tube. Les premiers ordinateurs créés avec son aide pouvaient compter des milliers de fois plus vite que les machines à calculer mécaniques les plus avancées, mais étaient encore très volumineux. Les premiers ordinateurs pesaient environ 30 tonnes et occupaient une pièce de plus de 100 mètres carrés. mètres. Un développement ultérieur a été réalisé avec l'avènement d'une invention extrêmement importante : le transistor. Eh bien, la technologie informatique moderne est impensable sans l’utilisation d’un microprocesseur – un circuit intégré complexe développé en juin 1971. Ceci est un bref historique du développement de la technologie informatique. Les réalisations modernes de la science et de la technologie ont élevé le niveau des ordinateurs modernes à des sommets sans précédent.