Développement de la technologie informatique. Histoire du développement de la technologie informatique. Générations d'ordinateurs (ordinateurs). Mettre à jour de nouvelles connaissances

Le premier appareil conçu pour faciliter le comptage était le boulier. À l'aide de dominos boulier, il était possible d'effectuer des opérations d'addition et de soustraction et des multiplications simples.

1642 - Le mathématicien français Blaise Pascal conçoit la première machine à additionner mécanique, la Pascalina, capable d'effectuer mécaniquement l'addition de nombres.

1673 - Gottfried Wilhelm Leibniz conçoit une machine à additionner capable d'effectuer mécaniquement les quatre opérations arithmétiques.

Première moitié du 19ème siècle - Le mathématicien anglais Charles Babbage a tenté de construire un appareil informatique universel, c'est-à-dire un ordinateur. Babbage l'appelait le moteur analytique. Il a déterminé qu'un ordinateur doit contenir de la mémoire et être contrôlé par un programme. Selon Babbage, un ordinateur est un appareil mécanique pour lequel les programmes sont définis à l'aide de cartes perforées - des cartes en papier épais avec des informations imprimées à l'aide de trous (à cette époque, elles étaient déjà largement utilisées dans les métiers à tisser).

1941 - L'ingénieur allemand Konrad Zuse construit un petit ordinateur basé sur plusieurs relais électromécaniques.

1943 - Aux États-Unis, dans l'une des entreprises IBM, Howard Aiken crée un ordinateur appelé « Mark-1 ». Il permettait d'effectuer des calculs des centaines de fois plus rapidement qu'à la main (à l'aide d'une machine à calculer) et était utilisé pour les calculs militaires. Il utilisait une combinaison de signaux électriques et d’entraînements mécaniques. "Mark-1" avait des dimensions : 15 * 2-5 m et contenait 750 000 pièces. La machine était capable de multiplier deux nombres de 32 bits en 4 secondes.

1943 - Aux États-Unis, un groupe de spécialistes dirigé par John Mauchly et Prosper Eckert commence à construire l'ordinateur ENIAC basé sur des tubes à vide.

1945 - le mathématicien John von Neumann est amené à travailler sur ENIAC et prépare un rapport sur cet ordinateur. Dans son rapport, von Neumann a formulé les principes généraux du fonctionnement des ordinateurs, c'est-à-dire des dispositifs informatiques universels. À ce jour, la grande majorité des ordinateurs sont fabriqués conformément aux principes énoncés par John von Neumann.

1947 - Eckert et Mauchly commencent le développement de la première machine électronique série UNIVAC (Universal Automatic Computer). Le premier modèle de la machine (UNIVAC-1) a été construit pour le US Census Bureau et mis en service au printemps 1951. L'ordinateur synchrone et séquentiel UNIVAC-1 a été créé sur la base des ordinateurs ENIAC et EDVAC. Il fonctionnait avec une fréquence d'horloge de 2,25 MHz et contenait environ 5 000 tubes à vide. La capacité de stockage interne de 1 000 nombres décimaux de 12 bits a été mise en œuvre sur 100 lignes à retard au mercure.

1949 – Le chercheur anglais Mornes Wilkes construit le premier ordinateur, qui incarne les principes de von Neumann.

1951 - J. Forrester publie un article sur l'utilisation de noyaux magnétiques pour stocker des informations numériques. La machine Whirlwind-1 est la première à utiliser une mémoire à noyau magnétique. Il se composait de 2 cubes avec 32-32-17 cœurs, qui permettaient de stocker 2048 mots pour des nombres binaires de 16 bits avec un bit de parité.

1952 - IBM lance son premier ordinateur électronique industriel, l'IBM 701, un ordinateur parallèle synchrone contenant 4 000 tubes à vide et 12 000 diodes. Une version améliorée de la machine IBM 704 se distinguait par sa vitesse élevée, elle utilisait des registres d'index et représentait les données sous forme de virgule flottante.

Après l'ordinateur IBM 704 est sorti l'IBM 709, qui en termes d'architecture est proche des machines des deuxième et troisième générations. Dans cette machine, l'adressage indirect est utilisé pour la première fois et les canaux d'entrée-sortie apparaissent pour la première fois.

1952 - Remington Rand lance l'ordinateur UNIVAC-t 103, qui est le premier à utiliser des interruptions logicielles. Les employés de Remington Rand utilisaient une forme algébrique d'algorithme d'écriture appelée « Short Code » (le premier interpréteur, créé en 1949 par John Mauchly).

1956 - IBM développe des têtes magnétiques flottantes sur coussin d'air. Leur invention a permis de créer un nouveau type de mémoire - les dispositifs de stockage sur disque (SD), dont l'importance a été pleinement appréciée au cours des décennies suivantes du développement de la technologie informatique. Les premiers périphériques de stockage sur disque sont apparus sur les machines IBM 305 et RAMAC. Ce dernier disposait d'un paquet composé de 50 disques métalliques avec un revêtement magnétique, qui tournaient à une vitesse de 12 000 tr/min. /min. La surface du disque contenait 100 pistes d'enregistrement de données, chacune contenant 10 000 caractères.

1956 - Ferranti lance l'ordinateur Pegasus, dans lequel le concept de registres à usage général (GPR) a été implémenté pour la première fois. Avec l'avènement du RON, la distinction entre registres d'index et accumulateurs a été supprimée, et le programmeur disposait non pas d'un, mais de plusieurs registres d'accumulateurs.

1957 - un groupe dirigé par D. Backus achève les travaux sur le premier langage de programmation de haut niveau, appelé FORTRAN. Le langage, implémenté pour la première fois sur l'ordinateur IBM 704, a contribué à élargir le champ d'application des ordinateurs.

années 1960 - 2ème génération d'ordinateurs, des éléments de logique informatique sont implémentés sur la base de dispositifs à transistors semi-conducteurs, des langages de programmation algorithmique tels qu'Algol, Pascal et autres sont en cours de développement.

années 1970 - 3ème génération d'ordinateurs, circuits intégrés contenant des milliers de transistors sur une plaquette semi-conductrice. Des systèmes d'exploitation et des langages de programmation structurés ont commencé à être créés.

1974 - plusieurs entreprises annoncent la création d'un ordinateur personnel basé sur le microprocesseur Intel-8008 - un appareil qui remplit les mêmes fonctions qu'un grand ordinateur, mais est conçu pour un seul utilisateur.

1975 - le premier ordinateur personnel Altair-8800 commercialisé est apparu, basé sur le microprocesseur Intel-8080. Cet ordinateur n’avait que 256 octets de RAM et il n’y avait ni clavier ni écran.

Fin 1975 - Paul Allen et Bill Gates (futurs fondateurs de Microsoft) créent un interpréteur de langage Basic pour l'ordinateur Altair, qui permet aux utilisateurs de communiquer simplement avec l'ordinateur et d'écrire facilement des programmes pour celui-ci.

Août 1981 - IBM présente l'ordinateur personnel IBM PC. Le microprocesseur principal de l'ordinateur était un microprocesseur Intel-8088 16 bits, qui permettait de travailler avec 1 mégaoctet de mémoire.

années 1980 - 4ème génération d'ordinateurs construits sur de grands circuits intégrés. Les microprocesseurs sont mis en œuvre sous la forme d'une seule puce, production en série d'ordinateurs personnels.

années 1990 — 5ème génération d'ordinateurs, circuits intégrés ultra-larges. Les processeurs contiennent des millions de transistors. L'émergence de réseaux informatiques mondiaux à usage de masse.

années 2000 — 6ème génération d'ordinateurs. Intégration d'ordinateurs et d'électroménager, ordinateurs embarqués, développement de l'informatique en réseau.

De tout temps, depuis l’Antiquité, les hommes ont eu besoin de compter. Au début, ils utilisaient leurs propres doigts ou des cailloux pour compter. Cependant, même des opérations arithmétiques simples impliquant de grands nombres sont difficiles pour le cerveau humain. Par conséquent, déjà dans les temps anciens, l'instrument de comptage le plus simple a été inventé - le boulier, inventé il y a plus de 15 siècles dans les pays méditerranéens. Ce prototype de comptes modernes était un jeu de dominos enfilés sur des tiges et était utilisé par les marchands.

Les bouliers au sens arithmétique représentent des décimales. Chaque domino sur la première tige a une valeur de 1, sur la deuxième tige - 10, sur la troisième tige - 100, etc. Jusqu’au XVIIe siècle, le boulier restait pratiquement le seul instrument de comptage.

En Russie, le boulier dit russe est apparu au XVIe siècle. Ils sont basés sur le système de nombres décimaux et permettent d'effectuer rapidement des opérations arithmétiques (Fig. 6)

Riz. 6. Boulier

En 1614, le mathématicien John Napier invente les logarithmes.

Un logarithme est un exposant auquel il faut élever un nombre (la base du logarithme) pour obtenir un autre nombre donné. La découverte de Napier était que n'importe quel nombre peut être exprimé de cette manière et que la somme des logarithmes de deux nombres quelconques est égale au logarithme du produit de ces nombres. Cela a permis de réduire l’action de multiplication à l’action plus simple d’addition. Napier a créé des tables de logarithmes. Pour multiplier deux nombres, il faut regarder leurs logarithmes dans ce tableau, les additionner et trouver le nombre correspondant à cette somme dans le tableau inverse - les antilogarithmes. A partir de ces tables, en 1654 R. Bissacar et en 1657, indépendamment, S. Partridge développèrent une règle à calcul rectangulaire : le principal instrument de calcul de l'ingénieur jusqu'au milieu du XXe siècle (Fig. 7).

Riz. 7. Règle à calcul

En 1642, Blaise Pascal invente une machine à additionner mécanique utilisant le système de nombres décimaux. Chaque décimale était représentée par une roue à dix dents, indiquant les nombres de 0 à 9. Il y avait 8 roues au total, c'est-à-dire que la machine de Pascal était de 8 bits.

Cependant, ce n’est pas le système de nombres décimaux qui a gagné en informatique numérique, mais le système de nombres binaires. La raison principale en est que dans la nature, il existe de nombreux phénomènes avec deux états stables, par exemple « marche/arrêt », « il y a tension/pas de tension », « fausse déclaration / vraie déclaration », mais il n'y a pas de phénomènes avec dix états stables. Pourquoi le système décimal est-il si répandu ? Oui, tout simplement parce qu'une personne a dix doigts sur deux mains et qu'ils sont pratiques à utiliser pour un simple comptage mental. Mais en informatique électronique, il est beaucoup plus facile d’utiliser un système de nombres binaires avec seulement deux états stables des éléments et de simples tables d’addition et de multiplication. Dans les machines informatiques numériques modernes - les ordinateurs - le système binaire est utilisé non seulement pour enregistrer des nombres sur lesquels des opérations de calcul doivent être effectuées, mais également pour enregistrer les commandes elles-mêmes pour ces calculs et même des programmes d'opérations entiers. Dans ce cas, tous les calculs et opérations sont réduits dans un ordinateur aux opérations arithmétiques les plus simples sur des nombres binaires.



L’un des premiers à s’intéresser au système binaire fut le grand mathématicien allemand Gottfried Leibniz. En 1666, à l'âge de vingt ans, dans son ouvrage « Sur l'art de la combinatoire », il développe une méthode générale qui permet de réduire toute pensée à des énoncés formels précis. Cela a ouvert la possibilité de transférer la logique (Leibniz l’appelait les lois de la pensée) du domaine des mots au domaine des mathématiques, où les relations entre objets et énoncés sont définies de manière précise et définitive. Ainsi, Leibniz fut le fondateur de la logique formelle. Il faisait des recherches sur le système de nombres binaires. En même temps, Leibniz lui confère une certaine signification mystique : il associe le chiffre 1 à Dieu, et le 0 au vide. A partir de ces deux chiffres, selon lui, tout s'est passé. Et avec l’aide de ces deux nombres, vous pouvez exprimer n’importe quel concept mathématique. Leibniz fut le premier à suggérer que le système binaire pourrait devenir un langage logique universel.

Leibniz rêvait de construire une « science universelle ». Il a voulu mettre en évidence les concepts les plus simples, à l'aide desquels, selon certaines règles, des concepts de toute complexité peuvent être formulés. Il rêvait de créer un langage universel dans lequel toutes les pensées pourraient être écrites sous forme de formules mathématiques. J'ai pensé à une machine qui pourrait dériver des théorèmes à partir d'axiomes, transformer des énoncés logiques en énoncés arithmétiques. En 1673, il créa un nouveau type de machine à additionner : une calculatrice mécanique qui non seulement additionne et soustrait des nombres, mais multiplie, divise, élève en puissance et extrait des racines carrées et cubiques. Il utilisait le système de nombres binaires.

Le langage logique universel a été créé en 1847 par le mathématicien anglais George Boole. Il a développé le calcul propositionnel, qui a ensuite été nommé algèbre booléenne en son honneur. Il représente la logique formelle traduite dans le langage strict des mathématiques. Les formules de l'algèbre booléenne ressemblent en apparence aux formules de l'algèbre que nous connaissons depuis l'école. Cependant, cette similitude n’est pas seulement externe, mais aussi interne. L'algèbre booléenne est une algèbre totalement égale, soumise à l'ensemble des lois et règles adoptées lors de sa création. C'est un système de notation applicable à tous les objets : chiffres, lettres et phrases. En utilisant ce système, vous pouvez coder toutes les déclarations qui doivent être prouvées vraies ou fausses, puis les manipuler comme des nombres ordinaires en mathématiques.

George Boole (1815-1864) - mathématicien et logicien anglais, l'un des fondateurs de la logique mathématique. Développé l'algèbre de la logique (dans les ouvrages « Analyse mathématique de la logique » (1847) et « Étude des lois de la pensée » (1854)).

Le mathématicien américain Charles Peirce a joué un rôle important dans la diffusion de l'algèbre booléenne et dans son développement.

Charles Pierce (1839-1914) était un philosophe, logicien, mathématicien et naturaliste américain, connu pour ses travaux sur la logique mathématique.

Le sujet à considérer en algèbre de la logique sont ce qu'on appelle les énoncés, c'est-à-dire toute affirmation qui peut être considérée comme vraie ou fausse : « Omsk est une ville de Russie », « 15 est un nombre pair ». La première affirmation est vraie, la seconde est fausse.

Les énoncés complexes obtenus à partir d'énoncés simples en utilisant les conjonctions ET, OU, SI... ALORS, les négations NON, peuvent également être vrais ou faux. Leur vérité ne dépend que de la véracité ou de la fausseté des simples affirmations qui les forment, par exemple : « S'il ne pleut pas dehors, alors tu peux aller te promener. La tâche principale de l’algèbre booléenne est d’étudier cette dépendance. On considère des opérations logiques qui vous permettent de construire des instructions complexes à partir d'instructions simples : négation (NON), conjonction (ET), disjonction (OU) et autres.

En 1804, J. Jacquard invente une machine à tisser permettant de réaliser des tissus à grands motifs. Ce motif a été programmé à l'aide d'un jeu complet de cartes perforées - des cartes rectangulaires en carton. Sur eux, des informations sur le motif étaient enregistrées en perforant des trous (perforations) situés dans un certain ordre. Lorsque la machine fonctionnait, ces cartes perforées étaient palpées à l'aide d'épingles spéciales. C’est de cette manière mécanique que les informations étaient lues pour tisser un motif de tissu programmé. La machine Jacquard était le prototype des machines contrôlées par ordinateur créées au XXe siècle.

En 1820, Thomas de Colmar met au point la première machine à additionner commerciale capable de multiplier et de diviser. Depuis le XIXe siècle, les machines à additionner se sont généralisées pour effectuer des calculs complexes.

En 1830, Charles Babbage tenta de créer un moteur analytique universel censé effectuer des calculs sans intervention humaine. Pour ce faire, on y a introduit des programmes préenregistrés sur des cartes perforées en papier épais en utilisant des trous pratiqués dessus dans un certain ordre (le mot « perforation » signifie « percer des trous dans du papier ou du carton »). Les principes de programmation du moteur analytique de Babbage ont été développés en 1843 par Ada Lovelace, la fille du poète Byron.


Riz. 8. Charles Babbage


Riz. 9. Ada Lovelace

Un moteur analytique doit être capable de mémoriser les données et les résultats intermédiaires des calculs, c'est-à-dire avoir de la mémoire. Cette machine était censée contenir trois parties principales : un dispositif pour stocker les nombres tapés à l'aide d'engrenages (mémoire), un dispositif pour opérer sur les nombres (unité arithmétique) et un dispositif pour gérer les nombres à l'aide de cartes perforées (dispositif de contrôle de programme). Les travaux de création du moteur analytique n'étaient pas terminés, mais les idées qu'il contenait ont contribué à la construction des premiers ordinateurs au XXe siècle (traduit de l'anglais, ce mot signifie « calculatrice »).

En 1880 V.T. Odner en Russie a créé une machine à additionner mécanique avec des roues dentées et, en 1890, il a lancé sa production en série. Par la suite, il a été produit sous le nom de « Félix » jusque dans les années 50 du 20e siècle (Fig. 11).


Riz. 10. V.T. Odner


Riz. 11. Machine à additionner mécanique "Félix"

En 1888, Herman Hollerith (Fig. 12) a créé la première machine à calculer électromécanique - une tabulatrice, dans laquelle les informations imprimées sur des cartes perforées (Fig. 13) étaient déchiffrées par le courant électrique. Cette machine a permis de réduire plusieurs fois le temps de comptage pour le recensement américain. En 1890, l'invention de Hollerith fut utilisée pour la première fois lors du 11e recensement américain. Le travail que 500 employés avaient auparavant mis jusqu'à 7 ans à accomplir a été réalisé par Hollerith et 43 assistants sur 43 tabulatrices en un mois.

En 1896, Hollerith fonde une société appelée Tabulated Machine Co. En 1911, cette société fusionna avec deux autres sociétés spécialisées dans l'automatisation du traitement des données statistiques et reçut son nom moderne IBM (International Business Machines) en 1924. Elle devint une société électronique, l'un des plus grands fabricants mondiaux de tous types de produits. ordinateurs et logiciels, fournisseur de réseaux d'information mondiaux. Le fondateur d'IBM était Thomas Watson Sr., qui a dirigé l'entreprise en 1914, a essentiellement créé IBM Corporation et l'a dirigée pendant plus de 40 ans. Depuis le milieu des années 1950, IBM occupe une position de leader sur le marché informatique mondial. En 1981, l’entreprise crée son premier ordinateur personnel, qui devient la norme de l’industrie. Au milieu des années 1980, IBM contrôlait environ 60 % de la production mondiale d'ordinateurs électroniques.


Riz. 12. Thomas Watson Sr.

Riz. 13. Herman Hollerith

À la fin du XIXe siècle, le ruban perforé a été inventé - du papier ou un film celluloïd, sur lequel des informations étaient appliquées à l'aide d'un poinçon sous la forme d'un ensemble de trous.

Un large ruban de papier perforé était utilisé dans le monotype, une machine à composer inventée par T. Lanston en 1892. Le monotype se composait de deux appareils indépendants : un clavier et un appareil de coulée. Le clavier servait à compiler un programme de frappe sur bande perforée, et la machine de coulée effectuait la frappe conformément au programme préalablement compilé sur le clavier à partir d'un alliage typographique spécial - gart.

Riz. 14. Carte perforée

Riz. 15. Bandes perforées

Le compositeur s'est assis devant le clavier, a regardé le texte qui se trouvait devant lui sur le pupitre et a appuyé sur les touches appropriées. Lorsqu'une des touches de lettre était frappée, les aiguilles du mécanisme de perforation utilisaient de l'air comprimé pour perforer une combinaison de codes de trous dans la bande de papier. Cette combinaison correspondait à une lettre, un signe ou un espace donné entre eux. Après chaque frappe sur la clé, le ruban de papier s'est déplacé d'un pas - 3 mm. Chaque rangée horizontale de trous sur le papier perforé correspond à une lettre, un signe ou un espace entre eux. La bobine finie (perforée) de ruban de papier perforé a été transférée vers une machine de coulée, dans laquelle, également en utilisant de l'air comprimé, les informations codées dessus ont été lues à partir du ruban de papier perforé et un ensemble de lettres a été automatiquement produit. Ainsi, le monotype est l’une des premières machines contrôlées par ordinateur de l’histoire de la technologie. Elle appartenait aux machines de composition à chaud et a cédé au fil du temps d'abord à la photocomposition puis à la composition électronique.

Un peu plus tôt que le monotype, en 1881, le pianola (ou phonola) a été inventé - un instrument permettant de jouer automatiquement du piano. Il fonctionnait également à l’air comprimé. Dans un pianola, chaque touche d'un piano ordinaire ou d'un piano à queue correspond à un marteau qui le frappe. L’ensemble des marteaux constitue le contre-clavier, qui est fixé au clavier du piano. Un large ruban de papier perforé enroulé sur un rouleau est inséré dans le pianola. Les trous sur la bande perforée sont réalisés à l'avance pendant que le pianiste joue - ce sont des sortes de « notes ». Lorsqu'un pianola fonctionne, la bande de papier perforée est rembobinée d'un rouleau à l'autre. Les informations qui y sont enregistrées sont lues à l'aide d'un mécanisme pneumatique. Il active des marteaux qui correspondent aux trous de la bande perforée, les faisant frapper sur les touches et reproduire la performance du pianiste. Ainsi, le pianola était aussi une machine commandée par programme. Grâce aux bandes de piano perforées conservées, il a été possible de restaurer et de réenregistrer, à l'aide de méthodes modernes, l'interprétation de pianistes du passé aussi remarquables que le compositeur A.N. Scriabine. Le pianola était utilisé par les célèbres compositeurs et pianistes Rubinstein, Paderewski, Busoni.

Plus tard, les informations ont été lues à partir de bandes perforées et de cartes perforées à l'aide de contacts électriques - des brosses métalliques qui, au contact d'un trou, fermaient un circuit électrique. Puis les balais ont été remplacés par des photocellules, et la lecture des informations est devenue optique, sans contact. C’est ainsi que les informations étaient enregistrées et lues dans les premiers ordinateurs numériques.

Les opérations logiques sont étroitement liées à la vie quotidienne.

En utilisant un élément OU pour deux entrées, deux éléments ET pour deux entrées et un élément NON, vous pouvez construire un circuit logique d'un demi-additionneur binaire capable d'effectuer l'opération d'addition binaire de deux nombres binaires à un chiffre (c'est-à-dire, effectuer l'opération règles de l'arithmétique binaire) :

0 +0 =0 ; 0+1=1 ; 1+0=1 ; 1+1=0. Ce faisant, il alloue le bit de report.

Cependant, un tel circuit ne contient pas de troisième entrée à laquelle peut être appliqué un signal de retenue du bit précédent de la somme des nombres binaires. Par conséquent, le demi-additionneur n'est utilisé que dans le bit le moins significatif du circuit logique pour additionner les nombres binaires multi-bits, où il ne peut pas y avoir de signal de retenue du bit binaire précédent. Un additionneur binaire complet ajoute deux nombres binaires multi-bits, en tenant compte des signaux de retenue issus de l'addition dans les bits binaires précédents.

En connectant des additionneurs binaires en cascade, vous pouvez obtenir un circuit additionneur logique pour les nombres binaires avec n'importe quel nombre de chiffres.

Avec quelques modifications, ces circuits logiques sont également utilisés pour soustraire, multiplier et diviser des nombres binaires. Avec leur aide, les appareils arithmétiques des ordinateurs modernes ont été construits.

En 1937, George Stibitz (Fig. 16) a créé un additionneur binaire à partir de relais électromécaniques ordinaires - un dispositif capable d'effectuer l'opération d'addition de nombres en code binaire. Et aujourd'hui, l'additionneur binaire reste l'un des principaux composants de tout ordinateur, la base de son dispositif arithmétique.


Riz. 16. Georges Stibitz

En 1937-1942 John Atanasoff (Fig. 17) a créé un modèle du premier ordinateur fonctionnant avec des tubes à vide. Il utilisait le système de nombres binaires. Des cartes perforées ont été utilisées pour saisir les données et produire les résultats des calculs. Les travaux sur cette machine furent presque terminés en 1942, mais en raison de la guerre, tout financement supplémentaire fut interrompu.


Riz. 17. John Atanasoff

En 1937, Konrad Zuse (Fig. 12) crée son premier ordinateur Z1 basé sur des relais électromécaniques. Les données initiales y étaient saisies à l'aide d'un clavier et le résultat des calculs était affiché sur un panneau avec de nombreuses ampoules. En 1938, K. Zuse crée un modèle Z2 amélioré. Les programmes y étaient saisis à l'aide de bandes perforées. Il a été réalisé en perçant des trous dans un film photographique 35 mm usagé. En 1941, K. Zuse a construit un ordinateur fonctionnel Z3, puis Z4, basé sur le système de nombres binaires. Ils ont été utilisés pour des calculs lors de la création d'avions et de missiles. En 1942, Konrad Zuse et Helmut Schreier ont eu l'idée de convertir le Z3 des relais électromécaniques en tubes à vide. Une telle machine était censée fonctionner 1000 fois plus vite, mais il n'a pas été possible de la créer - la guerre a fait obstacle.


Riz. 18. Konrad Zuse

En 1943-1944, dans l'une des entreprises IBM (IBM), en collaboration avec des scientifiques de l'Université Harvard dirigés par Howard Aiken, l'ordinateur Mark-1 a été créé. Il pesait environ 35 tonnes. "Mark-1" était basé sur l'utilisation de relais électromécaniques et fonctionnait avec des chiffres codés sur une bande perforée.

Lors de sa création, les idées énoncées par Charles Babbage dans son moteur analytique ont été utilisées. Contrairement à Stiebitz et Zuse, Aiken n'a pas réalisé les avantages du système de nombres binaires et a utilisé le système décimal dans sa machine. La machine pouvait manipuler des nombres comportant jusqu’à 23 chiffres. Pour multiplier deux de ces nombres, il lui fallait 4 secondes. En 1947, la machine Mark-2 a été créée, qui utilisait déjà le système de nombres binaires. Dans cette machine, les opérations d'addition et de soustraction prenaient en moyenne 0,125 seconde et la multiplication 0,25 seconde.

La science abstraite de l’algèbre logique est proche de la vie pratique. Il vous permet de résoudre divers problèmes de contrôle.

Les signaux d'entrée et de sortie des relais électromagnétiques, comme les instructions de l'algèbre booléenne, ne prennent également que deux valeurs. Lorsque l'enroulement est hors tension, le signal d'entrée est 0 et lorsque le courant circule dans l'enroulement, le signal d'entrée est 1. Lorsque le contact du relais est ouvert, le signal de sortie est 0 et lorsque le contact est fermé, il est 1.

C'est précisément cette similitude entre les énoncés de l'algèbre booléenne et le comportement des relais électromagnétiques qui a été remarquée par le célèbre physicien Paul Ehrenfest. Dès 1910, il proposait d'utiliser l'algèbre booléenne pour décrire le fonctionnement des circuits relais dans les systèmes téléphoniques. Selon une autre version, l'idée d'utiliser l'algèbre booléenne pour décrire les circuits de commutation électrique appartient à Peirce. En 1936, le fondateur de la théorie moderne de l'information, Claude Shannon, a combiné le système de nombres binaires, la logique mathématique et les circuits électriques dans sa thèse de doctorat.

Il est pratique de désigner les connexions entre les relais électromagnétiques dans les circuits en utilisant les opérations logiques NON, ET, OU, RÉPÉTER (OUI), etc. Par exemple, une connexion en série de contacts de relais implémente une opération ET, et une connexion parallèle de ces contacts implémente une opération OU logique. Les opérations ET, OU, NON sont effectuées de la même manière dans les circuits électroniques, où le rôle des relais qui ferment et ouvrent les circuits électriques est assuré par des éléments semi-conducteurs sans contact - des transistors, créés en 1947-1948 par les scientifiques américains D. Bardeen, W. Brattain et W. .Shockley.

Les relais électromécaniques étaient trop lents. C'est pourquoi, dès 1943, les Américains ont commencé à développer un ordinateur basé sur des tubes à vide. En 1946, Presper Eckert et John Mauchly (Fig. 13) construisirent le premier ordinateur numérique électronique, ENIAC. Son poids était de 30 tonnes, il occupait 170 mètres carrés. m de superficie. Au lieu de milliers de relais électromécaniques, ENIAC contenait 18 000 tubes à vide. La machine comptait dans le système binaire et effectuait 5 000 opérations d'addition ou 300 opérations de multiplication par seconde. Non seulement un appareil arithmétique, mais aussi un appareil de stockage a été construit sur des tubes à vide dans cette machine. Les données numériques étaient saisies à l'aide de cartes perforées, tandis que les programmes étaient saisis dans cette machine à l'aide de fiches et de champs de composition, c'est-à-dire que des milliers de contacts devaient être connectés pour chaque nouveau programme. Par conséquent, il a fallu plusieurs jours pour se préparer à résoudre un nouveau problème, même si le problème lui-même a été résolu en quelques minutes. C’était l’un des principaux inconvénients d’une telle machine.


Riz. 19. Presper Eckert et John Mauchly

Le travail de trois scientifiques exceptionnels - Claude Shannon, Alan Turing et John von Neumann - est devenu la base de la création de la structure des ordinateurs modernes.

Shannon Claude (née en 1916) est une ingénieure et mathématicienne américaine, fondatrice de la théorie mathématique de l'information.

En 1948, il publie l'ouvrage « Théorie mathématique de la communication », avec sa théorie de la transmission et du traitement de l'information, qui inclut tous les types de messages, y compris ceux transmis le long des fibres nerveuses des organismes vivants. Shannon a introduit le concept de quantité d'informations comme mesure de l'incertitude de l'état du système, supprimée lors de la réception d'informations. Il a appelé cette mesure de l’incertitude entropie, par analogie avec un concept similaire en mécanique statistique. Lorsque l'observateur reçoit des informations, l'entropie, c'est-à-dire le degré d'ignorance de l'état du système, diminue.

Alan Turing (1912-1954) – mathématicien anglais. Ses principaux travaux portent sur la logique mathématique et les mathématiques computationnelles. En 1936-1937 a écrit l'ouvrage fondateur « On Computable Numbers », dans lequel il a introduit le concept d'un dispositif abstrait, appelé plus tard la « machine de Turing ». Avec cet appareil, il a anticipé les propriétés fondamentales de l'ordinateur moderne. Turing a qualifié son appareil de « machine universelle », car il était censé résoudre tout problème mathématique ou logique admissible (théoriquement résoluble). Les données doivent y être saisies à partir d'une bande de papier divisée en cellules - cellules. Chacune de ces cellules devait contenir ou non un symbole. La machine de Turing pourrait traiter les symboles saisis sur la bande et les modifier, c'est-à-dire les effacer et en écrire de nouveaux selon les instructions stockées dans sa mémoire interne.

Neumann John von (1903-1957) - mathématicien et physicien américain, participant au développement d'armes atomiques et à hydrogène. Né à Budapest, il vit aux Etats-Unis depuis 1930. Dans son rapport, publié en 1945 et devenant le premier ouvrage sur les ordinateurs électroniques numériques, il identifie et décrit « l'architecture » de l'ordinateur moderne.

Dans la machine suivante - EDVAC - sa mémoire interne plus volumineuse était capable de stocker non seulement les données originales, mais également le programme de calcul. Cette idée – stocker des programmes dans la mémoire des machines – a été avancée par le mathématicien John von Neumann avec Mauchly et Eckert. Il fut le premier à décrire la structure d'un ordinateur universel (la soi-disant « architecture von Neumann » d'un ordinateur moderne). Pour un fonctionnement universel et efficace, selon von Neumann, un ordinateur doit contenir une unité arithmétique-logique centrale, un dispositif central pour contrôler toutes les opérations, un périphérique de stockage (mémoire) et un périphérique d'entrée/sortie d'informations, et les programmes doivent être stockés dans la mémoire de l'ordinateur.

Von Neumann pensait qu'un ordinateur devait fonctionner sur la base du système de nombres binaires, être électronique et effectuer toutes les opérations de manière séquentielle, les unes après les autres. Ces principes sont à la base de tous les ordinateurs modernes.

Une machine utilisant des tubes à vide fonctionnait beaucoup plus rapidement qu'une machine utilisant des relais électromécaniques, mais les tubes à vide eux-mêmes n'étaient pas fiables. Ils échouaient souvent. Pour les remplacer en 1947, John Bardeen, Walter Brattain et William Shockley proposèrent d'utiliser les éléments semi-conducteurs de commutation qu'ils avaient inventés : les transistors.

John Bardeen (1908-1991) – physicien américain. L'un des créateurs du premier transistor (prix Nobel de physique 1956 avec W. Brattain et W. Shockley pour la découverte de l'effet transistor). L'un des auteurs de la théorie microscopique de la supraconductivité (deuxième prix Nobel en 1957 conjointement avec L. Cooper et D. Schriffen).

Walter Brattain (1902-1987) - Physicien américain, l'un des créateurs du premier transistor, lauréat du prix Nobel de physique en 1956.

William Shockley (1910-1989) - Physicien américain, l'un des créateurs du premier transistor, lauréat du prix Nobel de physique en 1956.

Dans les ordinateurs modernes, les transistors microscopiques d’une puce de circuit intégré sont regroupés en systèmes de « portes » qui effectuent des opérations logiques sur les nombres binaires. Par exemple, avec leur aide, les additionneurs binaires décrits ci-dessus ont été construits, qui permettent d'ajouter des nombres binaires à plusieurs chiffres, de soustraire, de multiplier, de diviser et de comparer des nombres entre eux. Les portes logiques, agissant selon certaines règles, contrôlent le mouvement des données et l'exécution des instructions dans l'ordinateur.

L'amélioration des premiers types d'ordinateurs conduit en 1951 à la création de l'ordinateur UNIVAC, destiné à un usage commercial. Il est devenu le premier ordinateur produit commercialement.

L'ordinateur à tube série IBM 701, apparu en 1952, effectuait jusqu'à 2 200 opérations de multiplication par seconde.


Ordinateur IBM 701

L'initiative de créer ce système appartenait à Thomas Watson Jr. En 1937, il commence à travailler pour l'entreprise en tant que voyageur de commerce. Il n’a arrêté de travailler pour IBM que pendant la guerre, alors qu’il était pilote dans l’armée de l’air américaine. De retour dans l'entreprise en 1946, il en devient vice-président et dirige IBM de 1956 à 1971. Tout en restant membre du conseil d'administration d'IBM, Thomas Watson a été ambassadeur des États-Unis en URSS de 1979 à 1981.


Thomas Watson (Jr.)

En 1964, IBM annonce la création de six modèles de la famille IBM 360 (System 360), qui deviendront les premiers ordinateurs de la troisième génération. Les modèles disposaient d'un système de commande unique et différaient les uns des autres par la quantité de RAM et les performances. Lors de la création de modèles de la famille, un certain nombre de nouveaux principes ont été utilisés, qui ont rendu les machines universelles et ont permis de les utiliser avec la même efficacité à la fois pour résoudre des problèmes dans divers domaines scientifiques et technologiques et pour traiter des données dans le domaine de gestion et affaires. IBM System/360 (S/360) est une famille d'ordinateurs universels de classe mainframe. Les développements ultérieurs d'IBM/360 étaient les systèmes 370, 390, z9 et zSeries. En URSS, l'IBM/360 a été cloné sous le nom d'ES COMPUTER. Il s'agissait de logiciels compatibles avec leurs prototypes américains. Cela a permis d’utiliser des logiciels occidentaux dans des conditions de sous-développement de « l’industrie de la programmation » nationale.


Ordinateur IBM/360


T. Watson (Jr.) et V. Lerson devant l'ordinateur IBM/360

La première petite machine informatique électronique (MESM) de l'URSS utilisant des tubes à vide a été construite en 1949-1951. sous la direction de l'académicien S.A. Lebedeva. Indépendamment des scientifiques étrangers S.A. Lebedev a développé les principes de construction d'un ordinateur avec un programme stocké en mémoire. MESM a été la première machine de ce type. Et en 1952-1954. sous sa direction, la machine de calcul électronique à grande vitesse (BESM) a été développée, effectuant 8 000 opérations par seconde.


Lebedev Sergueï Alekseevich

La création des ordinateurs électroniques a été dirigée par les plus grands scientifiques et ingénieurs soviétiques I.S. Brook, W.M. Glushkov, Yu.A. Bazilevsky, B.I. Rameev, L.I. Gutenmacher, N.P. Brusentsov.

La première génération d'ordinateurs soviétiques comprenait des ordinateurs à tubes - "BESM-2", "Strela", "M-2", "M-3", "Minsk", "Ural-1", "Ural-2", "M - 20".

La deuxième génération d'ordinateurs soviétiques comprend des petits ordinateurs à semi-conducteurs "Nairi" et "Mir", des ordinateurs de taille moyenne pour les calculs scientifiques et le traitement de l'information avec une vitesse de 5 à 30 000 opérations par seconde "Minsk-2", "Minsk-22". , "Minsk-32", "Ural-14", "Razdan-2", "Razdan-3", "BESM-4", "M-220" et ordinateurs de contrôle "Dnepr", "VNIIEM-3", ainsi que le BESM-6 ultra-rapide avec une performance de 1 million d'opérations par seconde.

Les fondateurs de la microélectronique soviétique étaient des scientifiques émigrés des États-Unis vers l'URSS : F.G. Staros (Alfred Sarant) et I.V. Berg (Joël Barr). Ils sont devenus les initiateurs, organisateurs et directeurs du centre de microélectronique de Zelenograd, près de Moscou.


F.G. Staros

Les ordinateurs de troisième génération basés sur des circuits intégrés sont apparus en URSS dans la seconde moitié des années 1960. Le système informatique unifié (ES COMPUTER) et le petit système informatique (SM COMPUTER) ont été développés et leur production en série a été organisée. Comme mentionné ci-dessus, ce système était un clone du système américain IBM/360.

Evgeniy Alekseevich Lebedev était un ardent opposant à la copie du système américain IBM/360, qui dans la version soviétique s'appelait ES Computer, qui a commencé dans les années 1970. Le rôle de EU Computers dans le développement des ordinateurs nationaux est ambigu.

Au stade initial, l'émergence des ordinateurs ES a conduit à l'unification des systèmes informatiques, a permis d'établir des normes de programmation initiales et d'organiser des projets à grande échelle liés à la mise en œuvre de programmes.

Le prix en fut la réduction généralisée de leurs propres développements originaux et la dépendance totale aux idées et aux concepts d'IBM, qui étaient loin d'être les meilleurs à l'époque. La transition brutale des machines soviétiques faciles à utiliser vers le matériel et les logiciels beaucoup plus complexes de l'IBM/360 a obligé de nombreux programmeurs à surmonter des difficultés liées aux lacunes et aux erreurs des développeurs IBM. Les premiers modèles d'ordinateurs ES avaient souvent des performances inférieures à celles des ordinateurs domestiques de l'époque.

Plus tard, notamment dans les années 80, l’introduction généralisée des ordinateurs européens s’est transformée en un sérieux obstacle au développement de logiciels, de bases de données et de systèmes de dialogue. Après des achats coûteux et planifiés à l’avance, les entreprises ont été contraintes d’exploiter des systèmes informatiques obsolètes. Parallèlement, des systèmes se développent sur de petites machines et sur des ordinateurs personnels, qui deviennent de plus en plus populaires.

Plus tard, avec le début de la perestroïka, en 1988-1989, notre pays a été inondé d’ordinateurs personnels étrangers. Aucune mesure n'a pu arrêter la crise de la série informatique de l'UE. La branche de production nationale n'a pas été en mesure de créer des analogues ou des substituts aux ordinateurs ES sur la base de la nouvelle base d'éléments. L'économie de l'URSS ne permettait pas à cette époque de consacrer de gigantesques ressources financières à la création d'équipements microélectroniques. En conséquence, il y a eu une transition complète vers les ordinateurs importés. Les programmes de développement d'ordinateurs domestiques ont finalement été réduits. Des problèmes sont survenus : transfert de technologies vers des ordinateurs modernes, modernisation des technologies, emploi et recyclage de centaines de milliers de spécialistes.

Prévisions S.A. Lebedeva était justifié. Aux États-Unis et dans le monde, ils ont ensuite suivi la voie qu'il proposait : d'une part, des supercalculateurs sont créés, et de l'autre, toute une série d'ordinateurs moins puissants destinés à diverses applications - personnelles, spécialisées, etc.

La quatrième génération d'ordinateurs soviétiques a été mise en œuvre sur la base de circuits intégrés à grande échelle (LSI) et à très grande échelle (VLSI).

Un exemple de grands systèmes informatiques de quatrième génération est le complexe multiprocesseur Elbrus-2, avec une vitesse pouvant atteindre 100 millions d'opérations par seconde.

Dans les années 1950, la deuxième génération d’ordinateurs à transistors a été créée. En conséquence, la vitesse des machines a été multipliée par 10 et leur taille et leur poids ont été considérablement réduits. Ils ont commencé à utiliser des dispositifs de stockage sur noyaux de ferrite magnétique, capables de stocker des informations indéfiniment même lorsque les ordinateurs sont éteints. Ils ont été conçus par Joy Forrester en 1951-1953. De grandes quantités d'informations étaient stockées sur des supports externes, tels qu'une bande magnétique ou un tambour magnétique.

Le premier disque dur de l'histoire de l'informatique (Winchester) a été développé en 1956 par un groupe d'ingénieurs IBM dirigé par Reynold B. Johnson. L'appareil s'appelait 305 RAMAC - une méthode de comptabilité et de contrôle à accès aléatoire. Le lecteur était constitué de 50 disques en aluminium d'un diamètre de 24 pouces (environ 60 cm) et d'une épaisseur de 2,5 cm chacun. Une couche magnétique a été appliquée sur la surface de la plaque d'aluminium sur laquelle un enregistrement a été effectué. L'ensemble de cette structure de disques sur un axe commun tournait en mode de fonctionnement à une vitesse constante de 1 200 tr/min, et le lecteur lui-même occupait une superficie de 3 x 3,5 m. Sa capacité totale était de 5 Mo. L'un des principes les plus importants utilisés dans la conception du RAMAC 305 était que les têtes ne touchaient pas la surface des disques, mais planaient à une petite distance fixe. À cette fin, des buses d'air spéciales ont été utilisées, qui dirigeaient le flux vers le disque à travers de petits trous dans les supports de tête et créaient ainsi un espace entre la tête et la surface du plateau rotatif.

Le Winchester (disque dur) offrait aux utilisateurs d'ordinateurs la possibilité de stocker de très grandes quantités d'informations tout en récupérant rapidement les données nécessaires. Après la création du disque dur en 1958, les supports à bande magnétique ont été abandonnés.

En 1959, D. Kilby, D. Herney, K. Lehovec et R. Noyce (Fig. 14) ont inventé les circuits intégrés (puces) dans lesquels tous les composants électroniques, ainsi que les conducteurs, étaient placés à l'intérieur d'une plaquette de silicium. L'utilisation de puces dans les ordinateurs a permis de raccourcir les trajets du courant lors de la commutation. La vitesse des calculs a été décuplée. Les dimensions des machines ont également considérablement diminué. L'apparition de la puce a permis de créer la troisième génération d'ordinateurs. Et en 1964, IBM a commencé à produire des ordinateurs IBM-360 basés sur des circuits intégrés.


Riz. 14. D. Kilby, D. Hurney, K. Lechovec et R. Noyce

En 1965, Douglas Engelbart (Fig. 15) a créé la première « souris » : un manipulateur informatique portatif. Il a été utilisé pour la première fois sur l'ordinateur personnel Apple Macintosh, sorti plus tard, en 1976.


Riz. 19. Douglas Engelbart

En 1971, IBM a commencé à produire la disquette informatique, inventée par Yoshiro Nakamatsu, un disque magnétique flexible amovible (« disquette ») pour le stockage permanent d'informations. Initialement, la disquette avait un diamètre de 8 pouces et une capacité de 80 Ko, puis - 5 pouces. La disquette moderne de 1,44 Mo, lancée pour la première fois par Sony en 1982, est logée dans un boîtier en plastique dur et a un diamètre de 3,5 pouces.

En 1969, la création d'un réseau informatique de défense a commencé aux États-Unis, ancêtre de l'Internet mondial moderne.

Dans les années 1970, les imprimantes matricielles ont été développées pour imprimer des informations provenant d’ordinateurs.

En 1971, Edward Hoff, employé d'Intel (Fig. 20), a créé le premier microprocesseur, le 4004, en plaçant plusieurs circuits intégrés sur une seule puce de silicium. Bien qu’il ait été initialement destiné à être utilisé dans des calculatrices, il s’agissait essentiellement d’un micro-ordinateur complet. Cette invention révolutionnaire a radicalement changé l’idée selon laquelle les ordinateurs étaient des monstres encombrants et lourds. Le microprocesseur a permis de créer des ordinateurs de quatrième génération qui tiennent sur le bureau de l'utilisateur.


Riz. 20. Édouard Hoff

Au milieu des années 1970, des tentatives ont commencé pour créer un ordinateur personnel (PC), une machine informatique destinée à l'utilisateur privé.

En 1974, Edward Roberts (Fig. 21) a créé le premier ordinateur personnel, Altair, basé sur le microprocesseur Intel 8080 (Fig. 22). Mais sans logiciel, c'était inefficace : après tout, un utilisateur privé n'a pas son propre programmateur « à portée de main » chez lui.


Riz. 21. Édouard Roberts


Riz. 22. Premier ordinateur personnel Altaïr

En 1975, deux étudiants de l'Université Harvard, Bill Gates et Paul Allen, ont appris la création du PC Altair (Fig. 23). Ils furent les premiers à comprendre le besoin urgent d'écrire des logiciels pour ordinateurs personnels et en un mois, ils les créèrent pour le PC Altair basé sur le langage BASIC. La même année, ils fondent Microsoft, qui devient rapidement un leader dans le domaine des logiciels pour ordinateurs personnels et devient l'entreprise la plus riche du monde.


Riz. 23. Bill Gates et Paul Allen


Riz. 24. Bill Gates

En 1973, IBM a développé un disque dur magnétique (disque dur) pour ordinateur. Cette invention a permis de créer une mémoire à long terme de grande capacité, qui est conservée lorsque l'ordinateur est éteint.

Les premiers micro-ordinateurs Altair-8800 n'étaient qu'un ensemble de pièces qui devaient encore être assemblées. De plus, ils étaient extrêmement peu pratiques à utiliser : ils n'avaient ni moniteur, ni clavier, ni souris. Les informations y étaient saisies à l'aide de commutateurs sur le panneau avant et les résultats étaient affichés à l'aide d'indicateurs LED. Plus tard, ils ont commencé à afficher les résultats à l’aide d’un télétype – un appareil télégraphique doté d’un clavier.

En 1976, l'ingénieur Steve Wozniak de Hewlett-Packard, âgé de 26 ans, a créé un micro-ordinateur fondamentalement nouveau. Il fut le premier à utiliser un clavier semblable à celui d'une machine à écrire pour saisir des données et un téléviseur ordinaire pour afficher des informations. Les symboles étaient affichés sur son écran sur 24 lignes de 40 caractères chacune. L'ordinateur disposait de 8 Ko de mémoire, dont la moitié était occupée par le langage BASIC intégré et l'autre moitié que l'utilisateur pouvait utiliser pour saisir ses programmes. Cet ordinateur était nettement supérieur à l'Altair-8800, qui ne disposait que de 256 octets de mémoire. S. Wozniak a fourni un connecteur (appelé « slot ») pour son nouvel ordinateur afin de connecter des appareils supplémentaires. L'ami de Steve Wozniak, Steve Jobs, a été le premier à comprendre et à apprécier les perspectives de cet ordinateur (Fig. 25). Il a proposé d'organiser une entreprise pour sa production en série. Le 1er avril 1976, ils fondent la société Apple et l'enregistrent officiellement en janvier 1977. Ils ont appelé le nouvel ordinateur Apple-I (Fig. 26). En 10 mois, ils ont réussi à assembler et à vendre environ 200 exemplaires d'Apple-I.


Riz. 25. Steve Wozniak et Steve Jobs


Riz. 26. Ordinateur personnel Apple-I

A cette époque, Wozniak travaillait déjà à l'améliorer. La nouvelle version s'appelait Apple-II (Fig. 23). L'ordinateur a été fabriqué dans un boîtier en plastique, a reçu un mode graphique, son, couleur, mémoire étendue, 8 connecteurs d'extension (slots) au lieu d'un. Il utilisait un magnétophone à cassettes pour sauvegarder les programmes. La base du premier modèle Apple II était, comme dans l'Apple I, le microprocesseur 6502 de MOS Technology avec une fréquence d'horloge de 1 mégahertz. BASIC a été enregistré en mémoire permanente. La capacité de RAM de 4 Ko a été étendue à 48 Ko. Les informations étaient affichées sur un téléviseur couleur ou noir et blanc fonctionnant selon le système standard NTSC pour les États-Unis. En mode texte, 24 lignes étaient affichées, de 40 caractères chacune, et en mode graphique, la résolution était de 280 x 192 pixels (six couleurs). Le principal avantage de l'Apple II était la possibilité d'étendre sa RAM jusqu'à 48 Ko et d'utiliser 8 connecteurs pour connecter des appareils supplémentaires. Grâce à l'utilisation de graphiques en couleur, il pourrait être utilisé pour une grande variété de jeux (Fig. 27).


Riz. 27. Ordinateur personnel Apple II

Grâce à ses capacités, l'Apple II a gagné en popularité auprès des personnes de diverses professions. Ses utilisateurs n'étaient pas tenus d'avoir des connaissances en électronique ou en langages de programmation.

L'Apple II est devenu le premier ordinateur véritablement personnel destiné aux scientifiques, ingénieurs, avocats, hommes d'affaires, femmes au foyer et écoliers.

En juillet 1978, l'Apple II a été complété par le lecteur Disk II, qui a considérablement élargi ses capacités. Le système d'exploitation disque Apple-DOS a été créé pour cela. Et fin 1978, l'ordinateur a été encore amélioré et commercialisé sous le nom d'Apple II Plus. Il pourrait désormais être utilisé dans le monde des affaires pour stocker des informations, mener des affaires et aider à la prise de décision. La création de programmes d'application tels que des éditeurs de texte, des organisateurs et des feuilles de calcul a commencé.

En 1979, Dan Bricklin et Bob Frankston ont créé VisiCalc, le premier tableur au monde. Cet outil était le mieux adapté aux calculs comptables. Sa première version a été écrite pour Apple II, qui était souvent achetée uniquement pour fonctionner avec VisiCalc.

Ainsi, en quelques années, le micro-ordinateur, en grande partie grâce à Apple et à ses fondateurs Steven Jobs et Steve Wozniak, s'est transformé en un ordinateur personnel pour des personnes de diverses professions.

En 1981, l'ordinateur personnel IBM PC est apparu, qui est rapidement devenu la norme dans l'industrie informatique et a remplacé presque tous les modèles d'ordinateurs personnels concurrents du marché. La seule exception était Apple. En 1984, est créé l'Apple Macintosh, le premier ordinateur doté d'une interface graphique contrôlée par une souris. Grâce à ses avantages, Apple a réussi à rester sur le marché des ordinateurs personnels. Il a conquis le marché de l'éducation et de l'édition, où les capacités graphiques exceptionnelles des Macintosh sont utilisées pour la mise en page et le traitement des images.

Aujourd'hui, Apple contrôle 8 à 10 % du marché mondial des ordinateurs personnels, les 90 % restants étant constitués d'ordinateurs personnels compatibles IBM. La plupart des ordinateurs Macintosh appartiennent à des utilisateurs aux États-Unis.

En 1979, apparaît le disque compact optique (CD), développé par Philips et destiné uniquement à l'écoute d'enregistrements musicaux.

En 1979, Intel a développé le microprocesseur 8088 pour les ordinateurs personnels.

Les ordinateurs personnels du modèle IBM PC, créés en 1981 par un groupe d'ingénieurs IBM dirigé par William C. Lowe, se sont généralisés. Le PC IBM disposait d'un processeur Intel 8088 avec une fréquence d'horloge de 4,77 MHz, de 16 Ko de mémoire extensible jusqu'à 256 Ko et du système d'exploitation DOS 1.0. (Fig. 24). Le système d'exploitation DOS 1.0 a été créé par Microsoft. En seulement un mois, IBM a réussi à vendre 241 683 PC IBM. En accord avec les dirigeants de Microsoft, IBM a versé un certain montant aux créateurs du programme pour chaque copie du système d'exploitation installée sur le PC IBM. Grâce à la popularité du PC IBM, les dirigeants de Microsoft, Bill Gates et Paul Allen, sont rapidement devenus milliardaires et Microsoft a pris une position de leader sur le marché des logiciels.


Riz. 28. Modèle d'ordinateur personnel IBM PC

Le PC IBM appliquait le principe de l'architecture ouverte, ce qui permettait d'apporter des améliorations et des ajouts aux conceptions de PC existantes. Ce principe implique l'utilisation de blocs et de dispositifs prêts à l'emploi dans la conception lors de l'assemblage d'un ordinateur, ainsi que la standardisation des méthodes de connexion des périphériques informatiques.

Le principe de l'architecture ouverte a contribué à l'adoption généralisée des micro-ordinateurs clones compatibles IBM PC. Un grand nombre d'entreprises à travers le monde ont commencé à les assembler à partir de blocs et d'appareils prêts à l'emploi. Les utilisateurs, à leur tour, ont pu mettre à niveau leurs micro-ordinateurs de manière indépendante et les équiper d'appareils supplémentaires provenant de centaines de fabricants.

À la fin des années 1990, les ordinateurs compatibles IBM PC représentaient 90 % du marché des ordinateurs personnels.

Le PC IBM est rapidement devenu la norme dans l'industrie informatique et a chassé du marché presque tous les modèles d'ordinateurs personnels concurrents. La seule exception était Apple. En 1984, est créé l'Apple Macintosh, le premier ordinateur doté d'une interface graphique contrôlée par une souris. Grâce à ses avantages, Apple a réussi à rester sur le marché des ordinateurs personnels. Elle a conquis le marché dans le domaine de l'éducation et de l'édition, où ses capacités graphiques exceptionnelles sont utilisées pour la mise en page et le traitement des images.

Aujourd'hui, Apple contrôle 8 à 10 % du marché mondial des ordinateurs personnels, les 90 % restants étant constitués d'ordinateurs personnels compatibles IBM. La plupart des ordinateurs Macintosh appartiennent à des utilisateurs américains.

Au cours des dernières décennies du XXe siècle, les ordinateurs ont considérablement augmenté leur vitesse ainsi que la quantité d’informations qu’ils traitent et stockent.

En 1965, Gordon Moore, l'un des fondateurs d'Intel Corporation, leader dans le domaine des circuits intégrés informatiques - « puces », a suggéré que le nombre de transistors qu'ils contiennent doublerait chaque année. Au cours des 10 années suivantes, cette prédiction s'est réalisée, puis il a suggéré que ce nombre doublerait désormais tous les 2 ans. En effet, le nombre de transistors dans les microprocesseurs double tous les 18 mois. Les informaticiens appellent désormais cette tendance la loi de Moore.


Riz. 29. Gordon Moore

Une tendance similaire est observée dans le développement et la production de dispositifs RAM et de dispositifs de stockage d’informations. D’ailleurs, je suis convaincu qu’au moment où ce livre sera publié, de nombreuses données numériques, en termes de capacité et de vitesse, seront devenues obsolètes.

Le développement des logiciels, sans lesquels il est généralement impossible d'utiliser un ordinateur personnel, et surtout des systèmes d'exploitation qui assurent l'interaction entre l'utilisateur et le PC, n'est pas en reste.

En 1981, Microsoft a développé le système d'exploitation MS-DOS pour ses ordinateurs personnels.

En 1983, l'ordinateur personnel amélioré IBM PC/XT d'IBM a été créé.

Dans les années 1980, des imprimantes à jet d'encre et laser noir et blanc ont été créées pour imprimer des informations à partir d'ordinateurs. Elles sont nettement supérieures aux imprimantes matricielles en termes de qualité et de vitesse d’impression.

En 1983-1993, le réseau informatique mondial Internet et le courrier électronique ont été créés, utilisés par des millions d'utilisateurs à travers le monde.

En 1992, Microsoft a lancé le système d'exploitation Windows 3.1 pour les ordinateurs compatibles IBM PC. Le mot « Windows » traduit de l'anglais signifie « fenêtres ». Un système d'exploitation fenêtré vous permet de travailler avec plusieurs documents à la fois. Il s’agit d’une « interface graphique ». Il s'agit d'un système d'interaction avec un PC dans lequel l'utilisateur manipule ce que l'on appelle des « icônes » : des images qu'il peut contrôler à l'aide d'une souris d'ordinateur. Cette interface graphique et ce système de fenêtres ont été créés pour la première fois au centre de recherche Xerox en 1975 et appliqués aux PC Apple.

En 1995, Microsoft a lancé le système d'exploitation Windows-95 pour ordinateurs compatibles IBM PC, plus avancé que Windows-3.1, en 1998 - sa modification Windows-98, et en 2000 - Windows-2000, et en 2006 - Windows XP. Un certain nombre de programmes d'application ont été développés pour eux : éditeur de texte Word, feuilles de calcul Excel, programme d'utilisation d'Internet et du courrier électronique - Internet Explorer, éditeur graphique Paint, programmes d'application standards (calculatrice, horloge, numéroteur), agenda Microsoft Schedule. , lecteur universel, phonographe et lecteur laser.

Ces dernières années, il est devenu possible de combiner du texte et des graphiques avec du son et des images animées sur un ordinateur personnel. Cette technologie est appelée « multimédia ». Les CD-ROM optiques (Compact Disk Read Only Memory - c'est-à-dire la mémoire morte sur un CD) sont utilisés comme support de stockage dans ces ordinateurs multimédias. Extérieurement, ils ne diffèrent pas des CD audio utilisés dans les lecteurs et les centres musicaux.

La capacité d'un CD-ROM atteint 650 Mo ; en termes de capacité, il occupe une position intermédiaire entre les disquettes et un disque dur. Un lecteur de CD est utilisé pour lire des CD. Les informations sur un CD ne sont écrites qu'une seule fois dans un environnement industriel et sur un PC, elles ne peuvent être lues que. Une grande variété de jeux, d'encyclopédies, d'albums d'art, de cartes, d'atlas, de dictionnaires et d'ouvrages de référence sont publiés sur CD-ROM. Tous sont équipés de moteurs de recherche pratiques qui vous permettent de trouver rapidement le matériel dont vous avez besoin. La capacité de mémoire de deux CD-ROM est suffisante pour accueillir une encyclopédie plus volumineuse que la Grande Encyclopédie soviétique.

À la fin des années 1990, des disques compacts et lecteurs optiques inscriptibles sur CD-R et CD-RW réinscriptibles ont été créés, permettant à l'utilisateur de réaliser tous les enregistrements audio et vidéo à sa guise.

Dans les années 1990-2000, en plus des ordinateurs personnels de bureau, des PC « portables » ont été lancés sous la forme d'une valise portable et de « palmtops » de poche encore plus petits (ordinateurs de poche) - comme leur nom l'indique, ils tiennent dans votre poche et sur la paume. de ta main. Les ordinateurs portables sont équipés d'un écran d'affichage à cristaux liquides situé dans le couvercle à charnière et pour les ordinateurs de poche, sur le panneau avant du boîtier.

En 1998-2000, une « mémoire flash » miniature à semi-conducteurs (sans pièces mobiles) a été créée. Ainsi, la mémoire Memory Stick a les dimensions et le poids d'un morceau de chewing-gum, et la mémoire SD de Panasonic a la taille et le poids d'un timbre-poste. Pendant ce temps, le volume de leur mémoire, qui peut être stocké indéfiniment, est de 64 à 128 Mo et même de 2 à 8 Go ou plus.

En plus des ordinateurs personnels portables, des superordinateurs sont créés pour résoudre des problèmes scientifiques et technologiques complexes - prévisions météorologiques et sismiques, calculs de fusées et d'avions, réactions nucléaires, déchiffrement du code génétique humain. Ils utilisent plusieurs à plusieurs dizaines de microprocesseurs qui effectuent des calculs parallèles. Le premier supercalculateur a été développé par Seymour Cray en 1976.

En 2002, le supercalculateur NEC Earth Simulator a été construit au Japon, effectuant 35 600 milliards d’opérations par seconde. C'est aujourd'hui le supercalculateur le plus rapide au monde.


Riz. 30. Craie Seymour


Riz. 31. Supercalculateur Cray-1


Riz. 32. Supercalculateur Cray-2

En 2005, IBM a développé le supercalculateur Blue Gene avec une performance de plus de 30 000 milliards d'opérations par seconde. Il contient 12 000 processeurs et dispose de mille fois plus de puissance que le célèbre Deep Blue, avec lequel le champion du monde Garry Kasparov a joué aux échecs en 1997. IBM et des chercheurs de l'Institut Polytechnique Suisse de Lausanne ont tenté pour la première fois de modéliser le cerveau humain.

En 2006, les ordinateurs personnels ont fêté leurs 25 ans. Voyons comment ils ont changé au fil des années. Le premier d'entre eux, équipé d'un microprocesseur Intel, fonctionnait avec une fréquence d'horloge de seulement 4,77 MHz et disposait de 16 Ko de RAM. Les PC modernes équipés d'un microprocesseur Pentium 4, créé en 2001, ont une fréquence d'horloge de 3 à 4 GHz, une RAM de 512 Mo - 1 Go et une mémoire à long terme (disque dur) d'une capacité de dizaines et centaines de Go et même 1 téraoctet. Des progrès aussi gigantesques n’ont été observés dans aucune branche technologique, à l’exception de l’informatique numérique. Si les mêmes progrès avaient été réalisés en augmentant la vitesse des avions, ils voleraient depuis longtemps à la vitesse de la lumière.

Des millions d’ordinateurs sont utilisés dans presque tous les secteurs de l’économie, de l’industrie, de la science, de la technologie, de la pédagogie et de la médecine.

Les principales raisons de ces progrès sont les taux inhabituellement élevés de microminiaturisation des appareils électroniques numériques et les progrès de la programmation qui ont rendu la « communication » des utilisateurs ordinaires avec des ordinateurs personnels simple et pratique.





























































































































































Retour avant

Attention! Les aperçus des diapositives sont fournis à titre informatif uniquement et peuvent ne pas représenter toutes les fonctionnalités de la présentation. Si ce travail vous intéresse, veuillez télécharger la version complète.

Le but de la leçon :

  1. présenter l'histoire du développement de la technologie informatique, les appareils qui sont les prédécesseurs des ordinateurs et leurs inventeurs
  2. donner une idée du lien entre le développement de l'informatique et le développement de la société humaine,
  3. présenter les principales fonctionnalités des ordinateurs de différentes générations.
  4. Développement de l'intérêt cognitif, capacité à utiliser de la littérature supplémentaire

Type de cours : apprendre du nouveau matériel

Voir: leçon-conférence

Logiciels et logiciels pédagogiques : PC, slides de présentation illustrant les principaux appareils, portraits d'inventeurs et de scientifiques.

Plan de cours:

  1. Organisation du temps
  2. Mettre à jour de nouvelles connaissances
  3. Contexte des ordinateurs
  4. Générations d'ordinateurs
  5. L'avenir des ordinateurs
  6. Consolidation de nouvelles connaissances
  7. Résumer la leçon
  8. Devoirs

1. Moment organisationnel

Tâche de scène: Préparez les élèves au travail de la leçon. (Vérifier l'état de préparation de la classe pour le cours, la disponibilité des fournitures scolaires nécessaires, l'assiduité)

2. Actualiser les nouvelles connaissances

Tâche de scène: Préparer les étudiants à l'assimilation active de nouvelles connaissances, assurer la motivation des étudiants et l'acceptation des objectifs de l'activité éducative et cognitive. Fixer des objectifs de cours.

Bonjour! Selon vous, quelles inventions techniques ont particulièrement changé la façon dont les gens travaillent ?

(Les élèves expriment leurs avis sur cette question, l'enseignant les corrige si nécessaire)

- Vous avez raison, en effet, le principal dispositif technique qui a influencé le travail humain est l'invention des ordinateurs - des machines informatiques électroniques. Aujourd'hui, dans la leçon, nous apprendrons quels dispositifs informatiques ont précédé l'apparition des ordinateurs, comment les ordinateurs eux-mêmes ont changé, la séquence de formation de l'ordinateur, lorsqu'une machine conçue simplement pour compter est devenue un dispositif technique complexe. Le sujet de notre cours : « Histoire de l'informatique. Des générations d'ordinateurs." Le but de notre leçon : se familiariser avec l'histoire du développement de la technologie informatique, avec les appareils qui sont les prédécesseurs des ordinateurs et leurs inventeurs, se familiariser avec les principales caractéristiques des ordinateurs de différentes générations.

Pendant la leçon, nous travaillerons à l'aide d'une présentation multimédia composée de 4 sections « Préhistoire des ordinateurs », « Générations d'ordinateurs », « Galerie des scientifiques », « Dictionnaire informatique ». Chaque section comporte une sous-section « Testez-vous » - il s'agit d'un test dans lequel vous découvrirez immédiatement le résultat.

3. Contexte des ordinateurs

Attirez l'attention des étudiants sur le fait qu'un ordinateur est une machine informatique électronique, un autre nom « ordinateur » ou « ordinateur » vient du verbe anglais « calculer » - calculer, donc le mot « ordinateur » peut être traduit par « calculatrice ». Autrement dit, dans le mot ordinateur et dans le mot ordinateur, le sens principal est celui des calculs. Même si vous et moi savons bien que les ordinateurs modernes permettent non seulement de calculer, mais aussi de créer et de traiter des textes, des dessins, des vidéos et du son. Regardons l'histoire...

(en même temps, on dresse le tableau « Préhistoire des ordinateurs » dans un cahier)

"Préhistoire des ordinateurs"

L'homme ancien maîtrisait compter avant d'écrire. L'homme a choisi ses doigts comme premier assistant pour compter. C'est la présence de dix doigts qui constitue la base du système de nombres décimaux. Différents pays parlent et écrivent des langues différentes, mais comptent de la même manière. Au 5ème siècle avant JC. Les Grecs et les Égyptiens utilisaient l’ABAC pour compter, un appareil similaire au boulier russe.

Abacus est un mot grec et se traduit par planche à compter. L'idée derrière sa conception est de disposer d'un champ de calcul spécial dans lequel les éléments de comptage sont déplacés selon certaines règles. En effet, au départ le boulier était une planche recouverte de poussière ou de sable. Vous pourriez tracer des lignes dessus et déplacer des cailloux. Dans la Grèce antique, le boulier était principalement utilisé pour effectuer des transactions monétaires. Les grandes unités monétaires étaient comptées à gauche et la petite monnaie à droite. Le comptage a été effectué selon le système de nombres binaire-pentaire. Sur un tel tableau, il était facile d'ajouter et de soustraire, d'ajouter ou de supprimer des cailloux et de les déplacer de catégorie en catégorie.

En arrivant dans la Rome antique, le boulier change d’apparence. Les Romains ont commencé à le fabriquer en bronze, en ivoire ou en verre coloré. La planche avait deux rangées de fentes le long desquelles les os pouvaient être déplacés. Le boulier s'est transformé en un véritable appareil de calcul, permettant de représenter même des fractions, et était bien plus pratique que le boulier grec. Les Romains appelaient cet appareil calculare - « cailloux ». C’est de là que vient le verbe latin calculer – « calculer », et de là vient le mot russe « calculatrice ».

Après la chute de l’Empire romain, la science et la culture ont connu un déclin et le boulier a été fermé pendant un certain temps. Il n'a été relancé et répandu dans toute l'Europe qu'au Xe siècle. Le boulier était utilisé par les marchands, les changeurs de monnaie et les artisans. Même six siècles plus tard, le boulier restait un outil indispensable pour effectuer des calculs.

Naturellement, sur une si longue période de temps, le boulier a changé d'apparence et, aux siècles XLL-XLLL, il a acquis la forme de ce qu'on appelle le comptage sur les lignes et entre elles. Cette forme de comptage est restée dans certains pays européens jusqu'à la fin du XVIe siècle. et ce n'est qu'à ce moment-là qu'il a finalement cédé la place aux calculs sur papier.

En Chine, le boulier est connu depuis le 4ème siècle avant JC. Des bâtons de comptage étaient disposés sur un tableau spécial. Peu à peu, ils furent remplacés par des éclats multicolores et au Ve siècle le boulier chinois - suan-pan - apparut. Il s'agissait d'un cadre avec deux rangées de graines enfilées sur des brindilles. Il y en avait sept sur chaque brindille. De Chine, le suan-pan est arrivé au Japon. Cela s'est produit au XVe siècle et l'appareil s'appelait « soroban ».

En Russie, le boulier est apparu en même temps qu'au Japon. Mais le boulier russe a été inventé indépendamment, comme en témoignent les facteurs suivants. Premièrement, le boulier russe est très différent du boulier chinois. Deuxièmement, cette invention a sa propre histoire.

« Compter avec des dés » était courant en Russie. C'était proche du comptage de lignes européen, mais les scribes utilisaient des graines de fruits au lieu de jetons. Dans XVL, le boulier de tableau est apparu, la première version du boulier russe. Ces récits sont désormais conservés au Musée historique de Moscou.

Les bouliers ont été utilisés en Russie pendant près de 300 ans et n'ont été remplacés que par des calculatrices de poche bon marché.

Le premier appareil automatique au monde capable d'effectuer une addition a été créé sur la base d'une horloge mécanique et a été développé en 1623 par Wilhelm Schickard, professeur au Département des langues orientales de l'une des universités allemandes. Mais Blaise Pascal, Godfried Leibniz et Charles Babbage ont certainement apporté une contribution inestimable au développement d'appareils permettant d'effectuer des calculs.

En 1642, l'un des plus grands scientifiques de l'histoire de l'humanité, le mathématicien, physicien, philosophe et théologien français Blaise Pascal, a inventé et fabriqué un appareil mécanique pour additionner et soustraire des nombres : l'ARITHOMÈTRE. ? À votre avis, de quel matériau était faite la première machine à calculer de l’histoire ? (arbre).

L'idée principale pour la conception de la future machine a été formée : le transfert automatique de décharge. "Chaque roue... d'une certaine catégorie, se déplaçant de dix chiffres arithmétiques, fait avancer la suivante d'un seul chiffre" - cette formule d'invention affirmait la priorité de Blaise Pascal dans l'invention et garantissait son droit de produire et de vendre des voitures.

La machine de Pascal a ajouté des numéros sur des disques spéciaux - des roues. Les chiffres décimaux d'un nombre à cinq chiffres étaient spécifiés en tournant les disques sur lesquels les divisions numériques étaient marquées. Le résultat a été lu dans les fenêtres. Les disques avaient une dent allongée pour permettre le transfert au rang suivant.

Les nombres initiaux étaient définis en tournant les roues du cadran, la rotation de la poignée mettait divers engrenages et rouleaux en mouvement et, par conséquent, des roues spéciales avec des nombres indiquaient le résultat de l'addition ou de la soustraction.

Pascal était l'un des plus grands génies de l'humanité. Il était mathématicien, physicien, mécanicien, inventeur et écrivain. Les théorèmes des mathématiques et les lois de la physique portent son nom. En physique, il existe une unité de mesure de la pression appelée Pascal. En informatique, l’un des langages de programmation les plus populaires porte son nom.

En 1673, le mathématicien et philosophe allemand Gottfried Wilhelm Leibniz a inventé et fabriqué une machine à additionner qui pouvait non seulement additionner et soustraire des nombres, mais aussi multiplier et diviser. La rareté et le caractère primitif des premiers ordinateurs n'ont pas empêché Pascal et Leibniz d'exprimer un certain nombre d'idées intéressantes sur le rôle futur de la technologie informatique. Leibniz a écrit sur des machines qui fonctionneraient non seulement avec des nombres, mais aussi avec des mots, des concepts, des formules et pourraient effectuer des opérations logiques. Cette idée paraissait absurde à la plupart des contemporains de Leibniz. Au XVIIIe siècle, les vues de Leibniz furent ridiculisées par le grand satiriste anglais J. Swift, auteur du célèbre roman Les Voyages de Gulliver.

Ce n’est qu’au XXe siècle que la signification des idées de Pascal et de Leibniz est devenue claire.

Parallèlement aux appareils informatiques, des mécanismes de FONCTIONNEMENT AUTOMATIQUE SELON UN PROGRAMME DÉFINI (jukebox, horloges à sonnerie, métiers Jacquard) se sont également développés.

Au début du XIXe siècle, le mathématicien anglais Charles Babbage, qui s'occupait de compiler des tables de navigation, a développé un PROJET de moteur informatique « analytique », basé sur le PRINCIPE DE CONTRÔLE DE PROGRAMME (PCU). La pensée innovante de Babbage a été reprise et développée par son élève Ada Lovelace, fille du poète George Byron, qui est devenu le premier programmeur au monde. Cependant, la mise en œuvre pratique du projet de Babbage a été impossible en raison du développement insuffisant de l'industrie et de la technologie.

Les principaux éléments de la machine de Babbage inhérents à un ordinateur moderne :

  1. Un entrepôt est un appareil où sont stockés les numéros initiaux et les résultats intermédiaires. Dans un ordinateur moderne, c'est la mémoire.
  2. Factory est un appareil arithmétique dans lequel des opérations sont effectuées sur des nombres extraits de l'entrepôt. Dans un ordinateur moderne, c'est le processeur.
  3. Blocs d'entrée de données source – périphérique d'entrée.
  4. Résultats d'impression – périphérique de sortie.

L'architecture de la machine correspond pratiquement à l'architecture des ordinateurs modernes, et les commandes exécutées par le moteur analytique incluaient essentiellement toutes les commandes du processeur.

Un fait historique intéressant est que le premier programme du moteur analytique a été écrit par Ada Augusta Lovelace, la fille du grand poète anglais George Byron. C'est Babbage qui lui a transmis l'idée de créer une machine informatique.

L'idée de programmer des appareils mécaniques à l'aide d'une carte perforée a été mise en œuvre pour la première fois en 1804 dans un métier à tisser. Ils ont été utilisés pour la première fois par les concepteurs de métiers à tisser. Le tisserand londonien Joseph Marie Jacquard a réussi dans cette affaire. En 1801, il crée un métier à tisser automatique commandé par cartes perforées.

Le fil montait ou descendait à chaque coup de navette, selon qu'il y avait un trou ou non. Le fil transversal pourrait faire le tour de chaque côté longitudinal d'un côté ou de l'autre, selon le programme sur la carte perforée, créant ainsi un motif complexe de fils entrelacés. Ce tissage est appelé « jacquard » et est considéré comme l’un des tissages les plus complexes et les plus complexes. Ce métier à tisser piloté par programme a été le premier appareil industriel produit en série et est considéré comme l’une des machines les plus avancées jamais créées par l’homme.

L'idée d'enregistrer un programme sur une carte perforée est également venue à l'esprit de la première programmeuse, Ada Augusta Lovelace. C'est elle qui a proposé l'utilisation de cartes perforées dans le moteur analytique de Babbage. Elle écrit notamment dans une de ses lettres : « La machine analytique tisse des motifs algébriques de la même manière qu’un métier à tisser reproduit les couleurs et les feuilles. »

Herman Hollerith utilisait également des cartes perforées dans sa machine pour enregistrer et traiter des informations. Les cartes perforées étaient également utilisées dans les ordinateurs de première génération.

Jusque dans les années 40 du XXe siècle, la technologie informatique était représentée par des machines à additionner, qui de mécaniques sont devenues électriques, où des relais électromagnétiques passaient plusieurs secondes à multiplier les nombres, qui fonctionnaient exactement selon les mêmes principes que les machines à additionner de Pascal et Leibniz. De plus, ils étaient très peu fiables et tombaient souvent en panne. Il est intéressant de noter qu'autrefois la cause d'une panne d'une machine à calculer électrique était un papillon de nuit coincé dans un relais, en anglais « papillon de nuit, coléoptère » - bug, d'où le concept de « bug » en tant que dysfonctionnement d'un ordinateur.

Herman Hollerith né le 29 février 1860 dans la ville américaine de Buffalo dans une famille d'émigrés allemands. Herman s'est facilement familiarisé avec les mathématiques et les sciences naturelles et, à l'âge de 15 ans, il entre à l'École des Mines de l'Université de Columbia. Un professeur de la même université a attiré l'attention sur le jeune homme compétent et l'a invité, après avoir obtenu son diplôme, au bureau national du recensement, qu'il dirigeait. Un recensement de la population était effectué tous les dix ans. La population était en constante augmentation et son nombre aux États-Unis était alors d'environ 50 millions de personnes. Il était presque impossible de remplir manuellement une fiche pour chaque personne, puis de calculer et de traiter les résultats. Ce processus a duré plusieurs années, presque jusqu'au prochain recensement. Il fallait trouver une issue à cette situation. Herman Hollerith a eu l'idée de mécaniser ce processus du Dr John Billings, qui dirigeait le département des données consolidées. Il a suggéré d'utiliser des cartes perforées pour enregistrer les informations. Hollerith a nommé sa voiture tabulatrice et en 1887 année où il a été testé à Baltimore. Les résultats furent positifs et l'expérience fut répétée à Saint-Louis. Le gain de temps était presque décuplé. Le gouvernement américain a immédiatement conclu un contrat avec Hollerith pour la fourniture de tabulatrices et déjà en 1890, le recensement était effectué à l'aide de machines. Le traitement des résultats a pris moins de deux ans et a permis d'économiser 5 millions de dollars. Le système de Hollerith offrait non seulement une vitesse élevée, mais permettait également de comparer des données statistiques sur divers paramètres. Hollerith a développé une perforatrice à clés pratique qui vous permet de perforer environ 100 trous par minute simultanément sur plusieurs cartes et a automatisé les procédures d'alimentation et de tri des cartes perforées. Le tri a été effectué par un dispositif se présentant sous la forme d'un ensemble de boîtes avec couvercles. Les cartes perforées se déplaçaient sur une sorte de tapis roulant. D'un côté de la carte se trouvaient des épingles de lecture sur ressorts, de l'autre un réservoir de mercure. Lorsque l'épingle tombait dans le trou de la carte perforée, elle fermait un circuit électrique grâce au mercure de l'autre côté. Le couvercle de la boîte correspondante s'ouvrit et une carte perforée tomba dedans. La tabulatrice a été utilisée pour les recensements de population dans plusieurs pays.

En 1896, Herm Hollerith fonda la Tabulated Machine Company (TMC) et ses machines furent utilisées partout, aussi bien dans les grandes entreprises industrielles que dans les entreprises ordinaires. Et en 1900, la tabulatrice était utilisée pour le recensement. renomme la société IBM (International Business Machines).

4. Générations d'ordinateurs (ordinateurs)

(en même temps on prend des notes dans les cahiers et le tableau « Générations d'ordinateurs (ordinateurs) »)

GÉNÉRATIONS INFORMATIQUES
période Base d'élément Action rapide (opérations/sec.) Supports d'information programmes application Exemples d'ordinateurs
je
II
III
IV
V

jegénération d'ordinateurs : Dans les années 30 du 20e siècle, une percée et une révolution radicale se sont produites dans le développement de la physique. Dans les ordinateurs, on n'utilisait plus de roues, de rouleaux et de relais, mais des tubes à vide. Le passage des éléments électromécaniques aux éléments électroniques a immédiatement augmenté la vitesse des machines des centaines de fois. Le premier ordinateur opérationnel a été construit aux États-Unis en 1945, à l'Université de Pennsylvanie par les scientifiques Eckert et Mauchly et s'appelait ENIAC. Cette machine a été construite sur ordre du ministère américain de la Défense pour les systèmes de défense aérienne et pour automatiser le contrôle. Afin de calculer correctement la trajectoire et la vitesse d'un projectile pour atteindre une cible aérienne, il a fallu résoudre un système de 6 équations différentielles. Le premier ordinateur était censé résoudre ce problème. Le premier ordinateur occupait deux étages d'un bâtiment, pesait 30 tonnes et se composait de dizaines de milliers de tubes électroniques reliés par des fils d'une longueur totale de 10 000 km. Lorsque l'ordinateur ENIAC fonctionnait, l'électricité de la ville était coupée, cette machine consommait tellement d'électricité que les tubes électroniques ont rapidement surchauffé et sont tombés en panne. Tout un groupe d'étudiants ne faisait rien d'autre que chercher et remplacer continuellement les lampes grillées.

En URSS, le fondateur de la technologie informatique était Sergei Alekseevich Lebedev, qui a créé le MESM (petite machine à calculer) en 1951 (Kiev) et le BESM (ESM à grande vitesse) - 1952, Moscou.

IIgénération: En 1948, le scientifique américain Walter Brighten invente le TRANSISTOR, un dispositif semi-conducteur qui remplace les tubes radio. Le transistor était beaucoup plus petit qu'un tube radio, était plus fiable et consommait beaucoup moins d'électricité ; il remplaçait à lui seul 40 tubes à vide ! Les ordinateurs sont devenus plus petits et beaucoup moins chers, leur vitesse a atteint plusieurs centaines d'opérations par seconde. Désormais, les ordinateurs avaient la taille d’un réfrigérateur et pouvaient être achetés et utilisés par les instituts scientifiques et techniques. À cette époque, l’URSS suivait le rythme et produisait des ordinateurs BESM-6 de classe mondiale.

IIIgénération: La seconde moitié du XXe siècle est caractérisée par le développement rapide de la science et de la technologie, en particulier de la physique des semi-conducteurs, et depuis 1964, les transistors ont commencé à être placés sur des microcircuits réalisés à la surface des cristaux. Cela a permis de surmonter la millionième barrière de performance.

IVgénération: Depuis 1980, les scientifiques ont appris à placer plusieurs circuits intégrés sur une seule puce ; le développement de la microélectronique a conduit à la création de microprocesseurs. Le cristal IC est plus petit et plus fin qu’une lentille de contact. Les performances des ordinateurs modernes s'élèvent à des centaines de millions d'opérations par seconde.

En 1977, le premier PC (ordinateur personnel) d'Apple Macintosh est apparu. Depuis 1981, IBM (International Business Machine) est devenu le leader de la production de PC ; cette société est présente sur le marché américain depuis le 19ème siècle et a produit divers appareils pour le bureau - bouliers, stylos additionneurs, etc. et s'est imposée comme une entreprise fiable à laquelle font confiance la plupart des hommes d'affaires aux États-Unis. Mais ce n’est pas la seule raison pour laquelle les PC IBM étaient beaucoup plus populaires que les PC Apple Macintosh. Les PC Apple Macintosh constituaient une « boîte noire » pour l'utilisateur : il était impossible de démonter, de mettre à niveau le PC ou de connecter de nouveaux périphériques au PC, tandis que les PC IBM étaient ouverts à l'utilisateur et permettaient ainsi d'assembler un PC comme un ordinateur. jeu de construction pour enfants, la plupart des utilisateurs ont donc choisi les PC IBM. Bien que lorsque nous entendons le mot ordinateur, nous pensons à un PC, il existe des tâches que même les PC modernes ne peuvent pas résoudre et qui ne peuvent être exécutées que par des superordinateurs, dont la vitesse s'élève à des milliards d'opérations par seconde.

L'école scientifique de Lebedev a rivalisé avec succès avec la société américaine IBM, leader dans ses résultats. Parmi les scientifiques du monde entier, contemporains de Lebedev, il n'y a personne qui, comme lui, aurait un potentiel créatif aussi puissant pour couvrir avec son activité scientifique la période allant de la création des premiers ordinateurs à tubes au supercalculateur ultra-rapide. Lorsque le scientifique américain Norbert Wiener, surnommé le « premier cyber-prophète », est arrivé en URSS en 1960, il a noté : « Ils sont assez en retard sur nous en matière d’équipement, mais bien en avance sur nous en termes de THÉORIE de l’automatisation. » Malheureusement, dans les années 60, la science cybernétique a été persécutée en tant que « pseudoscience bourgeoise » ; les scientifiques en cybernétique ont été emprisonnés, c'est pourquoi l'électronique soviétique a commencé à être sensiblement à la traîne par rapport à l'électronique étrangère. Même s’il devenait impossible de créer de nouveaux ordinateurs, personne ne pouvait empêcher les scientifiques de réfléchir. Par conséquent, nos scientifiques russes sont toujours en avance sur la pensée scientifique mondiale dans le domaine de la théorie de l'automatisation.

Pour développer des programmes informatiques, divers langages de programmation (langages algorithmiques) ont été créés. FORTRAN FORTRAN - FORmula TRANslated - le premier langage, créé en 1956 par J. Backus. En 1961, le BASIC BASIC (Beginners All-Purpose Symbolic Instartion Code) est apparu - T. Kurtz, J. Kemeny.En 1971, le professeur à l'Université de Zurich Nicholas Wirth a créé le langage Pascal, qu'il a nommé en l'honneur du scientifique Blaise Pascal. D'autres langages ont également été créés : Ada, Algol, Cobol, C, Prolog, Fred, Logo, Lisp, etc. Mais le langage de programmation le plus populaire reste Pascal ; de nombreux langages ultérieurs ont repris de Pascal les commandes et principes de base de la construction de programmes, par exemple le langage C, C+ et le système de programmation Delphi, voire BASIC, ayant changé, a emprunté à Pascal sa structure et sa polyvalence. En 11e, nous étudierons le langage Pascal et apprendrons à créer des programmes pour résoudre des problèmes avec des formules, pour le traitement de texte, apprendre à dessiner et créer des dessins animés.

Supercalculateurs

5. L'avenir de l'informatique

  • Avantages de l'intelligence artificielle (IA) :
  • Ordinateurs moléculaires
  • Bioordinateurs
  • Ordinateurs optiques
  • Ordinateurs quantiques

6. Consolidation des nouvelles connaissances

Il est possible de consolider du nouveau matériel à l'aide d'un test dans une présentation multimédia du cours : la rubrique « Testez-vous » dans chaque partie de la présentation : « Contexte des ordinateurs », « Générations d'ordinateurs », « Galerie des scientifiques ».

Tester les connaissances sur ce sujet est possible grâce aux tests « Histoire de l'informatique » ( Annexe 1) en 4 versions et un test sur les scientifiques « L'informatique chez les personnes » ( Annexe 2)

7. Résumer la leçon

Vérification des tableaux complétés ( Annexe 3)

8. Devoirs

  • cours magistral dans un cahier de présentation, tableaux « Préhistoire des ordinateurs », « Générations d'ordinateurs »
  • préparer un message sur la 5ème génération d'ordinateurs (le futur des ordinateurs)

L'ordinateur qu'ils ont créé fonctionnait mille fois plus vite que le Mark 1. Mais il s'est avéré que la plupart du temps, cet ordinateur était inactif, car pour définir la méthode de calcul (programme) dans cet ordinateur, il fallait connecter les fils de la manière requise pendant plusieurs heures, voire plusieurs jours. Et le calcul lui-même pourrait alors prendre seulement quelques minutes, voire quelques secondes.

Pour simplifier et accélérer le processus de configuration des programmes, Mauchly et Eckert ont commencé à concevoir un nouvel ordinateur capable de stocker le programme dans sa mémoire. En 1945, le célèbre mathématicien John von Neumann fut recruté et prépara un rapport sur cet ordinateur. Le rapport a été envoyé à de nombreux scientifiques et est devenu largement connu car von Neumann y formulait clairement et simplement les principes généraux du fonctionnement des ordinateurs, c'est-à-dire des dispositifs informatiques universels. Et à ce jour, la grande majorité des ordinateurs sont fabriqués conformément aux principes exposés par John von Neumann dans son rapport de 1945. Le premier ordinateur intégrant les principes de von Neumann a été construit en 1949 par le chercheur anglais Maurice Wilkes.

Le développement de la première machine électronique en série UNIVAC (Universal Automatic Computer) a commencé vers 1947 par Eckert et Mauchli, qui fondèrent la société ECKERT-MAUCHLI en décembre de la même année. Le premier modèle de la machine (UNIVAC-1) a été construit pour le US Census Bureau et mis en service au printemps 1951. L'ordinateur synchrone et séquentiel UNIVAC-1 a été créé sur la base des ordinateurs ENIAC et EDVAC. Il fonctionnait avec une fréquence d'horloge de 2,25 MHz et contenait environ 5 000 tubes à vide. Le périphérique de stockage interne d'une capacité de 1 000 nombres décimaux de 12 bits a été mis en œuvre sur 100 lignes à retard au mercure.

Peu de temps après la mise en service de la machine UNIVAC-1, ses développeurs ont eu l'idée d'une programmation automatique. Il s’agissait de s’assurer que la machine elle-même puisse préparer la séquence de commandes nécessaire à la résolution d’un problème donné.

Au début des années 1950, le manque de mémoire à haute vitesse constituait un facteur limitant important dans le travail des concepteurs d'ordinateurs. Selon l'un des pionniers de l'informatique, D. Eckert, « l'architecture d'une machine est déterminée par la mémoire ». Les chercheurs ont concentré leurs efforts sur les propriétés de mémoire des anneaux de ferrite enfilés sur des matrices métalliques.

En 1951, J. Forrester publie un article sur l'utilisation de noyaux magnétiques pour stocker des informations numériques. La machine Whirlwind-1 a été la première à utiliser une mémoire à noyau magnétique. Il se composait de 2 cubes 32 x 32 x 17 avec des noyaux permettant le stockage de 2 048 mots pour des nombres binaires de 16 bits avec un bit de parité.

Bientôt, IBM s'implique dans le développement d'ordinateurs électroniques. En 1952, elle lance son premier ordinateur électronique industriel, l'IBM 701, qui était un ordinateur parallèle synchrone contenant 4 000 tubes à vide et 12 000 diodes au germanium. Une version améliorée de la machine IBM 704 se distinguait par sa vitesse élevée, elle utilisait des registres d'index et représentait les données sous forme de virgule flottante.

IBM704
Après l'ordinateur IBM 704, sort l'IBM 709, qui, en termes d'architecture, est proche des machines des deuxième et troisième générations. Sur cette machine, l'adressage indirect a été utilisé pour la première fois et les canaux d'E/S sont apparus pour la première fois.

En 1956, IBM développe des têtes magnétiques flottantes sur coussin d'air. Leur invention a permis de créer un nouveau type de mémoire - les dispositifs de stockage sur disque (SD), dont l'importance a été pleinement appréciée au cours des décennies suivantes du développement de la technologie informatique. Les premiers périphériques de stockage sur disque sont apparus sur les machines IBM 305 et RAMAC. Ce dernier était constitué d'un paquet composé de 50 disques métalliques à revêtement magnétique qui tournaient à une vitesse de 12 000 tr/min. La surface du disque contenait 100 pistes d'enregistrement de données, chacune contenant 10 000 caractères.

Après le premier ordinateur de production UNIVAC-1, Remington-Rand a lancé en 1952 l'ordinateur UNIVAC-1103, qui fonctionnait 50 fois plus rapidement. Plus tard, des interruptions logicielles ont été utilisées pour la première fois dans l'ordinateur UNIVAC-1103.

Les employés de Rernington-Rand utilisaient une forme algébrique d'algorithme d'écriture appelée « Short Code » (le premier interpréteur, créé en 1949 par John Mauchly). En outre, il convient de noter l'officier de la marine américaine et chef de l'équipe de programmation, puis capitaine (plus tard la seule femme amirale de la marine) Grace Hopper, qui a développé le premier programme de compilation. À propos, le terme « compilateur » a été introduit pour la première fois par G. Hopper en 1951. Ce programme de compilation traduisait en langage machine l'intégralité du programme, écrit sous une forme algébrique pratique pour le traitement. G. Hopper est également l'auteur du terme « bug » appliqué aux ordinateurs. Une fois, un coléoptère (en anglais - bug) a volé dans le laboratoire par une fenêtre ouverte qui, posée sur les contacts, les a court-circuités, provoquant un grave dysfonctionnement dans le fonctionnement de la machine. Le scarabée calciné a été collé au journal administratif, où divers dysfonctionnements ont été enregistrés. C’est ainsi que le premier bug informatique a été documenté.

IBM a fait les premiers pas dans le domaine de l'automatisation de la programmation en créant le « Fast Coding System » pour la machine IBM 701 en 1953. En URSS, A. A. Lyapunov a proposé l'un des premiers langages de programmation. En 1957, un groupe dirigé par D. Backus a achevé les travaux sur le premier langage de programmation de haut niveau, devenu plus tard populaire, appelé FORTRAN. Le langage, implémenté pour la première fois sur l'ordinateur IBM 704, a contribué à élargir le champ d'application des ordinateurs.

Alexeï Andreïevitch Lyapunov
En Grande-Bretagne, en juillet 1951, lors d'une conférence à l'Université de Manchester, M. Wilkes présenta un rapport « La meilleure méthode pour concevoir une machine automatique », qui devint un travail pionnier sur les principes fondamentaux de la microprogrammation. La méthode qu'il a proposée pour concevoir des dispositifs de contrôle a trouvé de nombreuses applications.

M. Wilkes a réalisé son idée de microprogrammation en 1957 lors de la création de la machine EDSAC-2. En 1951, M. Wilkes, avec D. Wheeler et S. Gill, ont écrit le premier manuel de programmation, « Composing Programs for Electronic Computing Machines ».

En 1956, Ferranti a lancé l'ordinateur Pegasus, qui implémentait pour la première fois le concept de registres à usage général (GPR). Avec l'avènement du RON, la distinction entre registres d'index et accumulateurs a été supprimée, et le programmeur disposait non pas d'un, mais de plusieurs registres d'accumulateurs.

L'avènement des ordinateurs personnels

Les microprocesseurs ont d’abord été utilisés dans divers appareils spécialisés, tels que les calculatrices. Mais en 1974, plusieurs entreprises ont annoncé la création d'un ordinateur personnel basé sur le microprocesseur Intel-8008, c'est-à-dire un appareil qui remplit les mêmes fonctions qu'un grand ordinateur, mais conçu pour un seul utilisateur. Au début de 1975, le premier ordinateur personnel commercialisé, l'Altair-8800, basé sur le microprocesseur Intel-8080, est apparu. Cet ordinateur s'est vendu environ 500 dollars. Et même si ses capacités étaient très limitées (la RAM n'était que de 256 octets, il n'y avait ni clavier ni écran), son apparition a été accueillie avec beaucoup d'enthousiasme : plusieurs milliers de machines ont été vendues au cours des premiers mois. Les acheteurs ont fourni à cet ordinateur des appareils supplémentaires : un moniteur pour afficher des informations, un clavier, des unités d'extension de mémoire, etc. Bientôt, ces appareils ont commencé à être produits par d'autres sociétés. Fin 1975, Paul Allen et Bill Gates (futurs fondateurs de Microsoft) ont créé un interpréteur de langage Basic pour l'ordinateur Altair, qui permettait aux utilisateurs de communiquer facilement avec l'ordinateur et d'écrire facilement des programmes pour celui-ci. Cela a également contribué à la popularité croissante des ordinateurs personnels.

Le succès de l'Altair-8800 a contraint de nombreuses entreprises à se lancer également dans la production d'ordinateurs personnels. Les ordinateurs personnels ont commencé à être vendus entièrement équipés, avec clavier et écran ; la demande s'élevait à des dizaines puis des centaines de milliers d'unités par an. Plusieurs magazines dédiés aux ordinateurs personnels paraissent. La croissance des ventes a été grandement facilitée par de nombreux programmes utiles d'importance pratique. Des programmes distribués commercialement sont également apparus, par exemple le programme d'édition de texte WordStar et le tableur VisiCalc (respectivement 1978 et 1979). Ces programmes et bien d'autres ont rendu l'achat d'ordinateurs personnels très rentable pour les entreprises : avec leur aide, il est devenu possible d'effectuer des calculs comptables, d'établir des documents, etc. L'utilisation de gros ordinateurs à ces fins était trop coûteuse.

À la fin des années 1970, la diffusion des ordinateurs personnels a même entraîné une légère baisse de la demande de gros ordinateurs et de mini-ordinateurs (mini-ordinateurs). Cela est devenu un sujet de préoccupation sérieux pour IBM, la société leader dans la production de grands ordinateurs, et en 1979, IBM a décidé de s'essayer au marché des ordinateurs personnels. Cependant, la direction de l'entreprise a sous-estimé l'importance future de ce marché et a considéré la création d'un ordinateur personnel comme une simple expérience mineure - quelque chose comme l'une des dizaines de travaux réalisés dans l'entreprise pour créer de nouveaux équipements. Afin de ne pas dépenser trop d'argent pour cette expérimentation, la direction de l'entreprise a donné à l'unité responsable de ce projet une liberté sans précédent dans l'entreprise. En particulier, il était autorisé non pas à concevoir un ordinateur personnel à partir de zéro, mais à utiliser des blocs fabriqués par d'autres sociétés. Et cette unité a pleinement profité de l’occasion qui lui était donnée.

Le dernier microprocesseur 16 bits Intel-8088 a été choisi comme microprocesseur principal de l'ordinateur. Son utilisation a permis d'augmenter considérablement les capacités potentielles de l'ordinateur, puisque le nouveau microprocesseur permettait de travailler avec 1 mégaoctet de mémoire, et que tous les ordinateurs disponibles à cette époque étaient limités à 64 kilo-octets.

En août 1981, un nouvel ordinateur appelé IBM PC a été officiellement présenté au public et a rapidement gagné en popularité auprès des utilisateurs. Quelques années plus tard, le PC IBM a pris une position de leader sur le marché, remplaçant les modèles informatiques 8 bits.

IBM-PC
Le secret de la popularité du PC IBM réside dans le fait qu'IBM n'a pas fait de son ordinateur un seul appareil monobloc et n'a pas protégé sa conception par des brevets. Au lieu de cela, elle a assemblé l’ordinateur à partir de pièces fabriquées indépendamment et n’a pas gardé secrets les spécifications de ces pièces ni la manière dont elles étaient connectées. En revanche, les principes de conception du PC IBM étaient accessibles à tous. Cette approche, appelée principe d'architecture ouverte, a fait du PC IBM un succès retentissant, même si elle a empêché IBM de partager les bénéfices de son succès. Voici comment l'ouverture de l'architecture IBM PC a influencé le développement des ordinateurs personnels.

La promesse et la popularité de l'IBM PC ont rendu très attractive la production de divers composants et dispositifs supplémentaires pour l'IBM PC. La concurrence entre les fabricants a conduit à des composants et des appareils moins chers. Très vite, de nombreuses entreprises ont cessé de se contenter du rôle de fabricants de composants pour IBM PC et ont commencé à assembler leurs propres ordinateurs compatibles avec IBM PC. Étant donné que ces entreprises n'avaient pas besoin de supporter les coûts énormes d'IBM pour la recherche et le maintien de la structure d'une grande entreprise, elles ont pu vendre leurs ordinateurs beaucoup moins cher (parfois 2 à 3 fois) que des ordinateurs IBM similaires.

Les ordinateurs compatibles avec IBM PC étaient initialement appelés avec mépris « clones », mais ce surnom n'a pas fait son chemin, car de nombreux fabricants d'ordinateurs compatibles IBM PC ont commencé à mettre en œuvre des avancées techniques plus rapidement qu'IBM lui-même. Les utilisateurs ont pu mettre à niveau leurs ordinateurs de manière indépendante et les équiper d'appareils supplémentaires provenant de centaines de fabricants différents.

Les ordinateurs personnels du futur

La base des ordinateurs du futur ne sera pas constituée de transistors en silicium, où les informations sont transmises par des électrons, mais de systèmes optiques. Le support d'information sera les photons, car ils sont plus légers et plus rapides que les électrons. En conséquence, l’ordinateur deviendra moins cher et plus compact. Mais le plus important est que le calcul optoélectronique est beaucoup plus rapide que celui utilisé aujourd’hui, donc l’ordinateur sera beaucoup plus puissant.

Le PC sera de petite taille et aura la puissance des superordinateurs modernes. Le PC deviendra un référentiel d'informations couvrant tous les aspects de notre vie quotidienne, il ne sera plus lié aux réseaux électriques. Ce PC sera protégé des voleurs grâce à un scanner biométrique qui reconnaîtra son propriétaire par empreinte digitale.

Le principal moyen de communication avec l’ordinateur sera la voix. L’ordinateur de bureau se transformera en une « barre chocolatée », ou plutôt en un écran d’ordinateur géant – un écran photonique interactif. Il n'y a pas besoin de clavier, puisque toutes les actions peuvent être effectuées d'une simple pression du doigt. Mais pour ceux qui préfèrent un clavier, un clavier virtuel peut être créé à tout moment sur l'écran et supprimé lorsqu'il n'est plus nécessaire.

L'ordinateur deviendra le système d'exploitation de la maison, et la maison commencera à répondre aux besoins du propriétaire, connaîtra ses préférences (faire du café à 7 heures, écouter sa musique préférée, enregistrer l'émission télévisée souhaitée, régler la température et humidité, etc.)

La taille de l’écran ne jouera aucun rôle dans les ordinateurs du futur. Il peut être aussi grand que votre bureau ou petit. Les versions plus grandes des écrans d'ordinateur seront basées sur des cristaux liquides excités photoniquement, qui auront une consommation d'énergie bien inférieure à celle des moniteurs LCD actuels. Les couleurs seront éclatantes et les images précises (affichages plasma possibles). En fait, le concept actuel de « résolution » sera grandement atrophié.

Appareils et appareils informatiques de l'Antiquité à nos jours

Les principales étapes du développement de la technologie informatique sont : Manuelle - jusqu'au 17e siècle, Mécanique - à partir du milieu du 17e siècle, Électromécanique - à partir des années 90 du 19e siècle, Électronique - à partir des années 40 du 20e siècle.

La période manuelle a commencé à l’aube de la civilisation humaine.

Dans toute activité, l'homme a toujours inventé et créé une grande variété de moyens, dispositifs et outils afin d'élargir ses capacités et de faciliter le travail.

Avec le développement du commerce, le besoin d’un compte est apparu. Il y a plusieurs siècles, pour effectuer divers calculs, les gens ont commencé à utiliser d'abord leurs propres doigts, puis des cailloux, des bâtons, des nœuds, etc. Mais au fil du temps, les tâches auxquelles il était confronté sont devenues plus compliquées et il est devenu nécessaire de trouver des moyens, d'inventer des dispositifs qui pourraient l'aider à résoudre ces problèmes.

L'un des premiers appareils (Ve siècle avant JC) facilitant les calculs était une planche spéciale, appelée plus tard boulier (du grec « planche à compter »). Les calculs étaient effectués en déplaçant des os ou des cailloux dans les évidements de planches en bronze, pierre, ivoire, etc. En Grèce, le boulier existait déjà au 5ème siècle avant JC. e. Un sillon correspondait aux unités, l'autre aux dizaines, etc. Si dans un sillon lors du comptage plus de 10 cailloux étaient collectés, ils étaient retirés et un caillou était ajouté au chiffre suivant. Les Romains ont amélioré le boulier, passant des rainures et des cailloux aux planches de marbre avec des rainures ciselées et des boules de marbre. Avec son aide, il a été possible d'effectuer les opérations mathématiques les plus simples d'addition et de soustraction.

La variété chinoise de boulier - suanpan - est apparue au 6ème siècle après JC ; Le soroban est un boulier japonais, dérivé du suanpan chinois, introduit au Japon aux XVe et XVIe siècles. XVIe siècle - Un boulier russe avec système de nombres décimaux est en cours de création. Ils ont subi des changements importants au fil des siècles, mais ils continuent d'être utilisés jusque dans les années 80 du 20e siècle.

Au début du XVIIe siècle, le mathématicien écossais J. Napier introduisit les logarithmes, qui eurent un impact révolutionnaire sur le comptage. La règle à calcul qu'il a inventée a été utilisée avec succès il y a quinze ans et a servi les ingénieurs pendant plus de 360 ​​ans. C’est sans aucun doute le couronnement des outils informatiques manuels de la période de l’automatisation.

Le développement de la mécanique au XVIIe siècle est devenu une condition préalable à la création d'appareils et d'instruments informatiques utilisant la méthode de calcul mécanique. Parmi les dispositifs mécaniques, il existe des machines à additionner (elles peuvent additionner et soustraire), un appareil de multiplication (elles multiplient et divisent), au fil du temps, elles ont été combinées en une seule - une machine à additionner (elles peuvent effectuer les 4 opérations arithmétiques).

Dans les journaux du brillant italien Léonard de Vinci (1452-1519), un certain nombre de dessins ont déjà été découverts à notre époque, qui se sont révélés être une esquisse d'un ordinateur sommateur sur roues dentées, capable d'ajouter des nombres décimaux de 13 bits. . Dans ces années lointaines, le brillant scientifique était probablement la seule personne sur Terre à comprendre la nécessité de créer des dispositifs pour faciliter le travail de calcul. Cependant, le besoin était si minime (ou plutôt, il n'existait pas du tout !) que plus de cent ans seulement après la mort de Léonard de Vinci, un autre Européen fut découvert - le scientifique allemand Wilhelm Schickard (1592-1636). ), qui, bien entendu, n'a pas lu les journaux du grand Italien - qui a proposé sa solution à ce problème. La raison qui a poussé Schiccard à développer une machine à calculer pour additionner et multiplier des nombres décimaux à six chiffres était sa connaissance de l'astronome polonais J. Kepler. Ayant pris connaissance du travail du grand astronome, principalement lié aux calculs, Schickard eut l'idée de​​l'aider dans son travail difficile. Dans une lettre qui lui est adressée, envoyée en 1623, il donne un dessin de la machine et raconte son fonctionnement.

L’un des premiers exemples de tels mécanismes fut « l’horloge à compter » du mathématicien allemand Wilhelm Schickard. En 1623, il crée une machine qui deviendra la première calculatrice automatique. La machine de Schickard pouvait additionner et soustraire des nombres à six chiffres, sonnant ainsi lorsqu'elle était pleine. Malheureusement, l'histoire n'a pas conservé d'informations sur le sort ultérieur de la voiture.

Les inventions de Léonard de Vinci et de Wilhelm Schiccard ne sont devenues connues qu'à notre époque. Ils étaient inconnus de leurs contemporains.

Le plus célèbre des premiers ordinateurs était la machine de sommation de Blaise Pascal, qui construisit en 1642 le modèle Pascalina - machine à additionner pour les nombres à huit chiffres. B. Pascal a commencé à créer Pascalina à l'âge de 19 ans, en observant le travail de son père, qui était percepteur d'impôts et devait souvent effectuer des calculs longs et fastidieux. Et son seul objectif était de l'aider dans son travail.

En 1673, le mathématicien allemand Leibniz crée le premier arithmomètre, qui lui permet d'effectuer les quatre opérations arithmétiques. "...Ma machine permet d'effectuer instantanément des multiplications et des divisions sur des nombres énormes, sans recourir à des additions et soustractions séquentielles", a écrit V. Leibniz à l'un de ses amis. La machine de Leibniz était connue dans la plupart des pays européens.

Le principe des calculs s'est avéré efficace et le modèle a ensuite été affiné à plusieurs reprises dans différents pays par différents scientifiques.

Et à partir de 1881, la production en série de machines à additionner a été organisée, qui ont été utilisées pour des calculs pratiques jusqu'aux années soixante du 20e siècle.

Le modèle produit en série le plus célèbre était la machine à additionner Felix, de fabrication russe, qui reçut son nom en 1900. à l'exposition internationale de Paris une médaille d'or.

La période mécanique comprend également les développements théoriques des machines analytiques de Babidge, qui n’ont pas été mises en œuvre faute de financement. Les développements théoriques remontent aux années 1920-1971. Le Moteur Analytique était censé être la première machine utilisant le principe de contrôle par programme et destiné à calculer n'importe quel algorithme, les entrées-sorties étaient planifiées à l'aide de cartes perforées, il était censé fonctionner sur une machine à vapeur. Le moteur analytique était composé des quatre parties principales suivantes : une unité de stockage des données initiales, intermédiaires et résultantes (entrepôt - mémoire) ; unité de traitement de données (moulin - appareil arithmétique) ; unité de contrôle de séquence de calcul (dispositif de contrôle); bloc pour la saisie des données initiales et l'impression des résultats (dispositifs d'entrée/sortie), qui a ensuite servi de prototype pour la structure de tous les ordinateurs modernes. Lady Ada Lovelace (fille du poète anglais George Byron) a travaillé simultanément avec le scientifique anglais. Elle a développé les premiers programmes pour la machine, a formulé de nombreuses idées et introduit un certain nombre de concepts et de termes qui ont survécu jusqu'à ce jour. La comtesse Lovelace est considérée comme la première programmeuse informatique et le langage de programmation ADA porte son nom. Bien que le projet n’ait pas été mis en œuvre, il était largement connu et très apprécié des scientifiques. Charles Babidge avait un siècle d'avance sur son temps.

À suivre…