Die Geschichte der Entwicklung der Computertechnologie der Computergeneration ist kurz. Geschichte Di. Frühe Geräte und Zählgeräte


Der Bedarf an Geräten zur Beschleunigung des Zählvorgangs entstand bereits vor Tausenden von Jahren beim Menschen. Damals bediente man sich hierfür einfacher Mittel, etwa Zählstäben. Später erschien der Abakus, bei uns besser bekannt als Abakus. Damit konnten nur einfachste Rechenoperationen durchgeführt werden. Seitdem hat sich viel verändert. Fast jeder Haushalt hat einen Computer und ein Smartphone in der Tasche. All dies lässt sich unter dem Oberbegriff „Computertechnik“ oder „Computertechnik“ zusammenfassen. In diesem Artikel erfahren Sie etwas mehr über die Geschichte seiner Entwicklung.

1623 Wilhelm Schickard denkt: „Warum erfinde ich nicht die erste Addiermaschine?“ Und er erfindet es. Er stellt ein mechanisches Gerät her, das grundlegende Rechenoperationen (Addition, Multiplikation, Division und Subtraktion) ausführen kann und mit Hilfe von Zahnrädern und Zylindern arbeitet.

1703 Gottfried Wilhelm Leibniz beschreibt das binäre Zahlensystem in seiner Abhandlung „Explication de l’Arithmtique Binaire“, die ins Russische als „Erklärung der binären Arithmetik“ übersetzt wird. Die Implementierung von Computern ist damit viel einfacher, und Leibniz selbst wusste davon. Bereits 1679 erstellte er eine Zeichnung eines Binärcomputers. In der Praxis erschien das erste Gerät dieser Art jedoch erst Mitte des 20. Jahrhunderts.

1804 Zum ersten Mal erschienen Lochkarten (Lochkarten). Ihre Verwendung dauerte bis in die 1970er Jahre. Es handelt sich um dünne Pappbögen, die an manchen Stellen Löcher aufweisen. Informationen wurden von verschiedenen Sequenzen dieser Löcher aufgezeichnet.

1820 Charles Xavier Thomas (ja, fast wie Professor X) bringt die Thomas Adding Machine auf den Markt, die als erstes in Massenproduktion hergestelltes Zählgerät in die Geschichte einging.

1835 Charles Babbage möchte seine eigene Analysemaschine erfinden und beschreibt sie. Der Zweck des Geräts bestand ursprünglich darin, logarithmische Tabellen mit hoher Genauigkeit zu berechnen, doch Babbage änderte später seine Meinung. Jetzt war sein Traum ein Allzweckauto. Zu dieser Zeit war die Entwicklung eines solchen Geräts durchaus möglich, die Zusammenarbeit mit Babbage erwies sich jedoch aufgrund seines Charakters als schwierig. Aufgrund von Meinungsverschiedenheiten wurde das Projekt geschlossen.

1845 Israel Staffel entwickelt das erste Gerät, das Quadratwurzeln aus Zahlen ziehen kann.

1905 Percy Ludgert veröffentlicht einen Entwurf für einen programmierbaren mechanischen Computer.

1936 Konrad Zuse beschließt, einen eigenen Computer zu bauen. Er nennt es Z1.

1941 Konrad Zuse bringt den Z3 auf den Markt, den weltweit ersten softwaregesteuerten Computer. Anschließend wurden mehrere Dutzend weitere Geräte der Z-Serie veröffentlicht.

1961 Einführung von ANITA Mark VII, dem weltweit ersten vollelektronischen Taschenrechner.

Ein paar Worte zu Computergenerationen.

1. Generation. Dabei handelt es sich um sogenannte Röhrencomputer. Sie arbeiten mit Vakuumröhren. Das erste Gerät dieser Art wurde Mitte des 20. Jahrhunderts entwickelt.

2. Generation. Jeder benutzte Computer der ersten Generation, bis Walter Brattain und John Bardeen 1947 plötzlich eine sehr wichtige Sache erfanden – den Transistor. So entstand die zweite Computergeneration. Sie verbrauchten viel weniger Energie und waren produktiver. Diese Geräte waren in den 50er und 60er Jahren des 20. Jahrhunderts weit verbreitet, bis 1958 der integrierte Schaltkreis erfunden wurde.

3. Generation. Der Betrieb dieser Computer basierte auf integrierten Schaltkreisen. Jeder dieser Schaltkreise enthält Hunderte Millionen Transistoren. Die Schaffung der dritten Generation stoppte jedoch nicht die Produktion von Computern der zweiten Generation.

4. Generation. 1969 kam Ted Hoff auf die Idee, viele integrierte Schaltkreise durch ein kleines Gerät zu ersetzen. Später wurde es Mikroschaltung genannt. Dadurch wurde es möglich, sehr kleine Mikrocomputer zu bauen. Das erste Gerät dieser Art wurde von Intel herausgebracht. Und in den 80er Jahren waren Mikroprozessoren und Mikrocomputer am weitesten verbreitet. Wir nutzen sie auch heute noch.

Dies war eine kurze Geschichte der Entwicklung der Computertechnologie und der Computertechnologie. Ich hoffe, es ist mir gelungen, Ihr Interesse zu wecken. Auf Wiedersehen!

Sobald jemand das Konzept der „Menge“ entdeckte, begann er sofort mit der Auswahl von Werkzeugen, die das Zählen optimieren und erleichtern würden. Heutzutage verarbeiten, speichern und übertragen superstarke Computer, die auf den Prinzipien mathematischer Berechnungen basieren, Informationen – die wichtigste Ressource und Motor des menschlichen Fortschritts. Es ist nicht schwer, sich ein Bild davon zu machen, wie die Entwicklung der Computertechnologie ablief, wenn man kurz die Hauptphasen dieses Prozesses betrachtet.

Die Hauptstadien der Entwicklung der Computertechnologie

Die beliebteste Klassifizierung schlägt vor, die Hauptstadien der Entwicklung der Computertechnologie chronologisch hervorzuheben:

  • Manuelle Bühne. Es begann zu Beginn der Menschheitsära und dauerte bis zur Mitte des 17. Jahrhunderts. In dieser Zeit entstanden die Grundlagen des Zählens. Später, mit der Entstehung von Positionszahlensystemen, erschienen Geräte (Abakus, Abakus und später ein Rechenschieber), die Berechnungen nach Ziffern ermöglichten.
  • Mechanische Bühne. Sie begann Mitte des 17. Jahrhunderts und dauerte fast bis zum Ende des 19. Jahrhunderts. Der Entwicklungsstand der Wissenschaft in dieser Zeit ermöglichte die Entwicklung mechanischer Geräte, die grundlegende Rechenoperationen ausführen und sich automatisch die höchsten Ziffern merken.
  • Die elektromechanische Bühne ist die kürzeste von allen, die die Entwicklungsgeschichte der Computertechnologie vereint. Es dauerte nur etwa 60 Jahre. Dies ist der Zeitraum zwischen der Erfindung des ersten Tabulators im Jahr 1887 und dem Erscheinen des allerersten Computers (ENIAC) im Jahr 1946. Neue Maschinen, deren Betrieb auf einem elektrischen Antrieb und einem elektrischen Relais basierte, ermöglichten eine wesentlich schnellere und genauere Berechnung, der Zählvorgang musste jedoch weiterhin von einer Person gesteuert werden.
  • Die elektronische Bühne begann in der zweiten Hälfte des letzten Jahrhunderts und dauert bis heute an. Dies ist die Geschichte von sechs Generationen elektronischer Computer – von den allerersten Rieseneinheiten, die auf Vakuumröhren basierten, bis hin zu den ultraleistungsstarken modernen Supercomputern mit einer großen Anzahl parallel arbeitender Prozessoren, die viele Befehle gleichzeitig ausführen konnten.

Die Entwicklungsstufen der Computertechnik werden nach einem chronologischen Prinzip eher willkürlich eingeteilt. Zu einer Zeit, als einige Computertypen im Einsatz waren, wurden aktiv die Voraussetzungen für die Entstehung der folgenden geschaffen.

Die allerersten Zählgeräte

Das früheste bekannte Zählwerkzeug in der Geschichte der Entwicklung der Computertechnologie sind die zehn Finger einer menschlichen Hand. Die Zählergebnisse wurden zunächst mit Fingern, Kerben in Holz und Stein, speziellen Stöcken und Knoten erfasst.

Mit dem Aufkommen der Schrift entstanden und entwickelten sich verschiedene Schreibweisen für Zahlen und es wurden Positionszahlensysteme erfunden (dezimal in Indien, sexagesimal in Babylon).

Etwa im 4. Jahrhundert v. Chr. begannen die alten Griechen mit dem Abakus zu zählen. Ursprünglich handelte es sich um eine flache Tontafel, auf die mit einem scharfen Gegenstand Streifen aufgetragen wurden. Die Zählung erfolgte, indem kleine Steine ​​oder andere kleine Gegenstände in einer bestimmten Reihenfolge auf diese Streifen gelegt wurden.

In China erschien im 4. Jahrhundert n. Chr. ein siebenzackiger Abakus – Suanpan (Suanpan). Drähte oder Seile – neun oder mehr – wurden auf einen rechteckigen Holzrahmen gespannt. Ein weiterer Draht (Seil), der senkrecht zu den anderen gespannt war, teilte den Suanpan in zwei ungleiche Teile. Im größeren Fach, „Erde“ genannt, befanden sich fünf an Drähten aufgereihte Knochen, im kleineren Fach, „Himmel“ genannt, waren es zwei davon. Jeder der Drähte entsprach einer Dezimalstelle.

Der traditionelle Soroban-Abakus erfreut sich in Japan seit dem 16. Jahrhundert großer Beliebtheit, nachdem er aus China dorthin gelangte. Zur gleichen Zeit erschien in Russland der Abakus.

Im 17. Jahrhundert erfand der Engländer Edmond Gunter auf der Grundlage der vom schottischen Mathematiker John Napier entdeckten Logarithmen den Rechenschieber. Dieses Gerät wurde ständig verbessert und hat bis heute überlebt. Es ermöglicht Ihnen, Zahlen zu multiplizieren und zu dividieren, zu potenzieren, Logarithmen und trigonometrische Funktionen zu bestimmen.

Der Rechenschieber wurde zu einem Gerät, das die Entwicklung der Computertechnologie auf der manuellen (vormechanischen) Stufe abschloss.

Die ersten mechanischen Rechengeräte

Im Jahr 1623 entwickelte der deutsche Wissenschaftler Wilhelm Schickard den ersten mechanischen „Rechner“, den er Zähluhr nannte. Der Mechanismus dieses Geräts ähnelte einer gewöhnlichen Uhr und bestand aus Zahnrädern und Kettenrädern. Diese Erfindung wurde jedoch erst Mitte des letzten Jahrhunderts bekannt.

Ein Quantensprung auf dem Gebiet der Computertechnologie war die Erfindung der Pascalina-Addiermaschine im Jahr 1642. Sein Schöpfer, der französische Mathematiker Blaise Pascal, begann mit der Arbeit an diesem Gerät, als er noch nicht einmal 20 Jahre alt war. „Pascalina“ war ein mechanisches Gerät in Form eines Kastens mit einer großen Anzahl miteinander verbundener Zahnräder. Die zu addierenden Zahlen wurden durch Drehen spezieller Räder in die Maschine eingegeben.

Im Jahr 1673 erfand der sächsische Mathematiker und Philosoph Gottfried von Leibniz eine Maschine, die die vier grundlegenden mathematischen Operationen ausführte und die Quadratwurzel ziehen konnte. Das Funktionsprinzip basierte auf dem vom Wissenschaftler speziell erfundenen binären Zahlensystem.

Im Jahr 1818 erfand der Franzose Charles (Karl) Xavier Thomas de Colmar auf der Grundlage der Ideen von Leibniz eine Additionsmaschine, die multiplizieren und dividieren konnte. Und zwei Jahre später begann der Engländer Charles Babbage mit der Konstruktion einer Maschine, die Berechnungen mit einer Genauigkeit von 20 Dezimalstellen durchführen konnte. Dieses Projekt blieb unvollendet, aber 1830 entwickelte sein Autor ein anderes – eine Analysemaschine zur Durchführung genauer wissenschaftlicher und technischer Berechnungen. Die Maschine sollte per Software gesteuert werden und perforierte Karten mit unterschiedlichen Lochpositionen sollten zur Ein- und Ausgabe von Informationen verwendet werden. Babbages Projekt sah die Entwicklung elektronischer Computertechnologie und die Probleme vor, die mit ihrer Hilfe gelöst werden könnten.

Es ist bemerkenswert, dass der Ruhm des ersten Programmierers der Welt einer Frau zusteht – Lady Ada Lovelace (geb. Byron). Sie war es, die die ersten Programme für Babbages Computer erstellte. Eine der Computersprachen wurde später nach ihr benannt.

Entwicklung der ersten Computeranaloga

Im Jahr 1887 trat die Geschichte der Entwicklung der Computertechnologie in eine neue Phase ein. Dem amerikanischen Ingenieur Herman Hollerith (Hollerith) gelang es, den ersten elektromechanischen Computer zu entwerfen – den Tabulator. Sein Mechanismus verfügte über ein Relais sowie Zähler und eine spezielle Sortierbox. Das Gerät las und sortierte statistische Aufzeichnungen auf Lochkarten. Anschließend wurde das von Hollerith gegründete Unternehmen zum Rückgrat des weltberühmten Computergiganten IBM.

1930 entwickelte der Amerikaner Vannovar Bush einen Differentialanalysator. Es wurde mit Strom betrieben und zur Datenspeicherung wurden Vakuumröhren verwendet. Diese Maschine war in der Lage, schnell Lösungen für komplexe mathematische Probleme zu finden.

Sechs Jahre später entwickelte der englische Wissenschaftler Alan Turing das Konzept einer Maschine, das zur theoretischen Grundlage für moderne Computer wurde. Es verfügte über alle wesentlichen Eigenschaften moderner Computertechnologie: Es konnte Schritt für Schritt Vorgänge ausführen, die im internen Speicher programmiert waren.

Ein Jahr später erfand George Stibitz, ein Wissenschaftler aus den Vereinigten Staaten, das erste elektromechanische Gerät des Landes, das eine binäre Addition durchführen konnte. Seine Operationen basierten auf der Booleschen Algebra – der mathematischen Logik, die Mitte des 19. Jahrhunderts von George Boole entwickelt wurde: der Verwendung der logischen Operatoren AND, OR und NOT. Später wird der Binäraddierer fester Bestandteil des Digitalrechners.

Im Jahr 1938 skizzierte Claude Shannon, ein Mitarbeiter der University of Massachusetts, die Prinzipien des logischen Aufbaus eines Computers, der elektrische Schaltkreise verwendet, um Probleme der Booleschen Algebra zu lösen.

Der Beginn des Computerzeitalters

Die Regierungen der am Zweiten Weltkrieg beteiligten Länder waren sich der strategischen Rolle der Informatik bei der Durchführung militärischer Operationen bewusst. Dies war der Anstoß für die Entwicklung und parallele Entstehung der ersten Computergeneration in diesen Ländern.

Ein Pionier auf dem Gebiet der Computertechnik war Konrad Zuse, ein deutscher Ingenieur. 1941 entwickelte er den ersten programmgesteuerten Computer. Die Z3 genannte Maschine war auf Telefonrelais aufgebaut und die Programme dafür waren auf perforiertem Band kodiert. Dieses Gerät konnte sowohl im Binärsystem als auch mit Gleitkommazahlen arbeiten.

Das nächste Modell von Zuses Maschine, der Z4, gilt offiziell als erster wirklich funktionierender programmierbarer Computer. In die Geschichte ging er auch als Schöpfer der ersten höheren Programmiersprache namens Plankalküll ein.

Im Jahr 1942 entwickelten die amerikanischen Forscher John Atanasoff (Atanasoff) und Clifford Berry ein Computergerät, das mit Vakuumröhren betrieben wurde. Die Maschine verwendete auch Binärcode und konnte eine Reihe logischer Operationen ausführen.

1943 wurde in einem Labor der englischen Regierung unter Geheimhaltung der erste Computer namens „Colossus“ gebaut. Anstelle von elektromechanischen Relais wurden zweitausend elektronische Röhren zur Speicherung und Verarbeitung von Informationen verwendet. Ziel war es, den Code geheimer Nachrichten zu knacken und zu entschlüsseln, die von der deutschen Verschlüsselungsmaschine Enigma, die in der Wehrmacht weit verbreitet war, übermittelt wurden. Die Existenz dieses Geräts wurde lange Zeit streng vertraulich behandelt. Nach Kriegsende wurde der Befehl zu seiner Zerstörung von Winston Churchill persönlich unterzeichnet.

Architekturentwicklung

1945 schuf der ungarisch-deutsch-amerikanische Mathematiker John (Janos Lajos) von Neumann den Prototyp für die Architektur moderner Computer. Er schlug vor, ein Programm in Form eines Codes direkt in den Speicher der Maschine zu schreiben, was eine gemeinsame Speicherung von Programmen und Daten im Speicher des Computers implizierte.

Von Neumanns Architektur bildete die Grundlage für den ersten universellen elektronischen Computer, ENIAC, der damals in den Vereinigten Staaten entstand. Dieser Riese wog etwa 30 Tonnen und befand sich auf einer Fläche von 170 Quadratmetern. Für den Betrieb der Maschine wurden 18.000 Lampen verwendet. Dieser Computer könnte in einer Sekunde 300 Multiplikationsoperationen oder 5.000 Additionen durchführen.

Europas erster universell programmierbarer Computer wurde 1950 in der Sowjetunion (Ukraine) entwickelt. Eine Gruppe Kiewer Wissenschaftler unter der Leitung von Sergei Alekseevich Lebedev entwarf eine kleine elektronische Rechenmaschine (MESM). Seine Geschwindigkeit betrug 50 Operationen pro Sekunde, es enthielt etwa 6.000 Vakuumröhren.

Im Jahr 1952 wurde die heimische Computertechnologie durch BESM ergänzt, eine große elektronische Rechenmaschine, die ebenfalls unter der Leitung von Lebedew entwickelt wurde. Dieser Computer, der bis zu 10.000 Operationen pro Sekunde ausführte, war damals der schnellste in Europa. Die Informationen wurden mittels Lochstreifen in den Speicher des Geräts eingegeben und die Daten per Fotodruck ausgegeben.

Im gleichen Zeitraum wurde in der UdSSR eine Reihe großer Computer unter dem allgemeinen Namen „Strela“ hergestellt (der Autor der Entwicklung war Yuri Yakovlevich Bazilevsky). Seit 1954 begann in Pensa unter der Leitung von Bashir Rameev die Serienproduktion des Universalcomputers „Ural“. Die neuesten Modelle waren hardware- und softwarekompatibel miteinander, es gab eine große Auswahl an Peripheriegeräten, sodass Sie Maschinen unterschiedlicher Konfiguration zusammenstellen konnten.

Transistoren. Veröffentlichung der ersten seriellen Computer

Allerdings fielen die Lampen sehr schnell aus, was das Arbeiten mit der Maschine sehr erschwerte. Der 1947 erfundene Transistor konnte dieses Problem lösen. Sie nutzte die elektrischen Eigenschaften von Halbleitern und erfüllte die gleichen Aufgaben wie Vakuumröhren, nahm jedoch viel weniger Platz ein und verbrauchte nicht so viel Energie. Zusammen mit dem Aufkommen von Ferritkernen zur Organisation des Computerspeichers ermöglichte der Einsatz von Transistoren eine deutliche Reduzierung der Maschinengröße und machte sie noch zuverlässiger und schneller.

1954 begann das amerikanische Unternehmen Texas Instruments mit der Massenproduktion von Transistoren, und zwei Jahre später erschien in Massachusetts der erste auf Transistoren basierende Computer der zweiten Generation, der TX-O.

Mitte des letzten Jahrhunderts nutzte ein erheblicher Teil der Regierungsorganisationen und großen Unternehmen Computer für wissenschaftliche, finanzielle und technische Berechnungen sowie für die Arbeit mit großen Datenmengen. Nach und nach erwarben Computer Funktionen, die wir heute kennen. In dieser Zeit erschienen Plotter, Drucker und Speichermedien auf Magnetplatten und Bändern.

Der aktive Einsatz der Computertechnologie hat zu einer Erweiterung ihrer Anwendungsgebiete geführt und die Schaffung neuer Softwaretechnologien erforderlich gemacht. Es sind höhere Programmiersprachen erschienen, die es ermöglichen, Programme von einer Maschine auf eine andere zu übertragen und das Schreiben von Code zu vereinfachen (Fortran, Cobol und andere). Es sind spezielle Übersetzerprogramme erschienen, die Code aus diesen Sprachen in Befehle umwandeln, die von der Maschine direkt wahrgenommen werden können.

Die Entstehung integrierter Schaltkreise

In den Jahren 1958-1960 erfuhr die Welt dank der Ingenieure aus den USA Robert Noyce und Jack Kilby von der Existenz integrierter Schaltkreise. Miniaturtransistoren und andere Komponenten, manchmal bis zu Hunderten oder Tausenden, wurden auf einer Silizium- oder Germanium-Kristallbasis montiert. Die knapp über einen Zentimeter großen Chips waren viel schneller als Transistoren und verbrauchten deutlich weniger Strom. Die Entwicklungsgeschichte der Computertechnologie verbindet ihr Erscheinen mit der Entstehung der dritten Computergeneration.

1964 brachte IBM den ersten Computer der SYSTEM 360-Familie auf den Markt, der auf integrierten Schaltkreisen basierte. Von diesem Zeitpunkt an kann mit der Massenproduktion von Computern gerechnet werden. Insgesamt wurden mehr als 20.000 Exemplare dieses Computers hergestellt.

1972 entwickelte die UdSSR den ES-Computer (Unified Series). Dabei handelte es sich um standardisierte Komplexe für den Betrieb von Rechenzentren, die über ein gemeinsames Kommandosystem verfügten. Als Basis diente das amerikanische System IBM 360.

Im folgenden Jahr veröffentlichte DEC den Minicomputer PDP-8, das erste kommerzielle Projekt in diesem Bereich. Die relativ geringen Kosten von Minicomputern haben es auch kleinen Organisationen ermöglicht, sie zu nutzen.

Im gleichen Zeitraum wurde die Software ständig verbessert. Es wurden Betriebssysteme entwickelt, die darauf abzielten, die größtmögliche Anzahl externer Geräte zu unterstützen, und es erschienen neue Programme. 1964 entwickelten sie BASIC, eine Sprache, die speziell für die Ausbildung von Programmieranfängern entwickelt wurde. Fünf Jahre später erschien Pascal, das sich zur Lösung vieler angewandter Probleme als sehr praktisch erwies.

Persönliche Computer

Nach 1970 begann die Produktion der vierten Computergeneration. Die Entwicklung der Computertechnologie ist zu dieser Zeit durch die Einführung großer integrierter Schaltkreise in die Computerproduktion gekennzeichnet. Solche Maschinen könnten nun Tausende Millionen Rechenoperationen in einer Sekunde ausführen, und ihre RAM-Kapazität stieg auf 500 Millionen Bits. Eine deutliche Reduzierung der Kosten für Mikrocomputer hat dazu geführt, dass die Möglichkeit, sie zu kaufen, nach und nach für den Durchschnittsbürger zugänglich wurde.

Apple war einer der ersten Hersteller von Personalcomputern. Seine Schöpfer Steve Jobs und Steve Wozniak entwarfen 1976 das erste PC-Modell und gaben ihm den Namen Apple I. Es kostete nur 500 US-Dollar. Ein Jahr später wurde das nächste Modell dieses Unternehmens vorgestellt – Apple II.

Der Computer dieser Zeit ähnelte erstmals einem Haushaltsgerät: Neben seiner kompakten Größe verfügte er über ein elegantes Design und eine benutzerfreundliche Oberfläche. Die Verbreitung von Personalcomputern Ende der 1970er Jahre führte dazu, dass die Nachfrage nach Großrechnern deutlich zurückging. Diese Tatsache beunruhigte ihren Hersteller IBM ernsthaft und brachte 1979 seinen ersten PC auf den Markt.

Zwei Jahre später erschien der erste Mikrocomputer des Unternehmens mit offener Architektur, basierend auf dem 16-Bit-8088-Mikroprozessor von Intel. Der Computer war mit einem monochromen Display, zwei Laufwerken für 5-Zoll-Disketten und 64 Kilobyte RAM ausgestattet. Im Auftrag des Herstellerunternehmens hat Microsoft speziell für diese Maschine ein Betriebssystem entwickelt. Auf dem Markt erschienen zahlreiche IBM-PC-Klone, die das Wachstum der industriellen Produktion von Personalcomputern ankurbelten.

1984 entwickelte und veröffentlichte Apple einen neuen Computer – den Macintosh. Sein Betriebssystem war äußerst benutzerfreundlich: Es stellte Befehle in Form von grafischen Bildern dar und ermöglichte die Eingabe per Maus. Dadurch wurde der Computer noch zugänglicher, da vom Benutzer keine besonderen Fähigkeiten mehr erforderlich waren.

Einige Quellen datieren Computer der fünften Generation der Computertechnologie auf die Jahre 1992–2013. Kurz gesagt, ihr Hauptkonzept lautet wie folgt: Hierbei handelt es sich um Computer, die auf der Grundlage hochkomplexer Mikroprozessoren mit einer Parallelvektorstruktur erstellt wurden, die es ermöglicht, Dutzende von in das Programm eingebetteten sequentiellen Befehlen gleichzeitig auszuführen. Maschinen mit mehreren hundert parallel arbeitenden Prozessoren ermöglichen eine noch genauere und schnellere Verarbeitung von Daten sowie den Aufbau effizienter Netzwerke.

Die Entwicklung moderner Computertechnologie lässt uns bereits von Computern der sechsten Generation sprechen. Hierbei handelt es sich um elektronische und optoelektronische Computer, die auf Zehntausenden von Mikroprozessoren laufen, sich durch massive Parallelität auszeichnen und die Architektur neuronaler biologischer Systeme modellieren, wodurch sie komplexe Bilder erfolgreich erkennen können.

Nach konsequenter Betrachtung aller Entwicklungsstadien der Computertechnologie ist eine interessante Tatsache festzustellen: Erfindungen, die sich in jedem von ihnen bewährt haben, haben bis heute überlebt und werden weiterhin erfolgreich eingesetzt.

Informatikkurse

Es gibt verschiedene Möglichkeiten, Computer zu klassifizieren.

Entsprechend ihrem Verwendungszweck werden Computer unterteilt in:

  • zu universellen – solchen, die in der Lage sind, eine Vielzahl mathematischer, wirtschaftlicher, technischer, technischer, wissenschaftlicher und anderer Probleme zu lösen;
  • problemorientiert - Lösung von Problemen einer engeren Richtung, die in der Regel mit der Verwaltung bestimmter Prozesse verbunden sind (Datenerfassung, Akkumulation und Verarbeitung kleiner Informationsmengen, Durchführung von Berechnungen nach einfachen Algorithmen). Sie verfügen über begrenztere Software- und Hardwareressourcen als die erste Gruppe von Computern;
  • Spezialrechner lösen in der Regel streng definierte Aufgaben. Sie verfügen über einen hochspezialisierten Aufbau und sind bei relativ geringer Geräte- und Steuerungskomplexität recht zuverlässig und produktiv auf ihrem Gebiet. Dabei handelt es sich beispielsweise um Controller oder Adapter, die mehrere Geräte steuern, aber auch um programmierbare Mikroprozessoren.

Basierend auf Größe und Produktionskapazität werden moderne elektronische Computergeräte unterteilt in:

  • zu ultragroßen (Supercomputern);
  • große Computer;
  • kleine Computer;
  • ultraklein (Mikrocomputer).

So sahen wir, dass Geräte, die zunächst vom Menschen erfunden wurden, um Ressourcen und Werte zu berücksichtigen und dann komplexe Berechnungen und Rechenoperationen schnell und genau durchzuführen, sich ständig weiterentwickelten und verbesserten.

Technische Mittel zur Umsetzung von Informationsprozessen

Die Entwicklungsgeschichte der VT umfasst mehrere Perioden: mechanisch, elektromechanisch und elektronisch.

Um Berechnungen im antiken Babylon (ca. 3.000 Jahre v. Chr.) und dann im antiken Griechenland und im antiken Rom (IV. Jahrhundert v. Chr.) durchzuführen, wurden Zähltafeln genannt Abakus. Das Abakusbrett war eine Tonplatte mit Aussparungen, in die Kieselsteine ​​gelegt wurden. Anschließend wurden die Aussparungen durch Draht mit aufgereihten Knochen ersetzt (der Prototyp der Zählung).

Im 17. Jahrhundert erfanden in Europa Mathematiker (V. Schiccard (1623 ᴦ.) und Blaise Pascal (1642 ᴦ.), G. Leibniz (1671 ᴦ.)). mechanische Maschinen, in der Lage, automatisch arithmetische Operationen durchzuführen (ein Prototyp einer Addiermaschine).

Im ersten Drittel des 19. Jahrhunderts entwickelte der englische Mathematiker C. Babbage ein Projekt für ein programmierbares automatisches mechanisches Rechengerät namens Babbage's Analytical Engine. Die Schirmherrin des Projekts, Gräfin Ada Augusta Lovelace, war die Programmiererin dieser „Analysemaschine“.

G. Hollerith im Jahr 1888. erstellt elektromechanisch eine Maschine, die aus einem Locher, einem Lochkartensortierer und einer Addiermaschine namens Tabulator bestand. Diese Maschine wurde erstmals in den USA zur Verarbeitung von Volkszählungsergebnissen eingesetzt.

Die Geschwindigkeit der Berechnungen in mechanischen und elektromechanischen Maschinen war begrenzt, und zwar in den 1930er Jahren. Die Entwicklung hat begonnen elektronisch Computer, deren elementare Basis eine Vakuumröhre mit drei Elektroden war.

Im Jahr 1946 ᴦ. an der Universität ᴦ. In Pennsylvania (USA) wurde ein elektronischer Computer namens UNIAK gebaut. Die Maschine wog 30 Tonnen, nahm eine Fläche von 200 Quadratmetern ein und enthielt 18.000 Lampen. Die Programmierung erfolgte durch den Einbau von Schaltern und den Anschluss von Steckverbindern. Infolgedessen dauerte die Erstellung und Ausführung selbst des einfachsten Programms sehr lange. Schwierigkeiten bei der Programmierung von UNIAK veranlassten John von Neumann, der als Berater des Projekts fungierte, neue Prinzipien für den Aufbau einer Computerarchitektur zu entwickeln.

In der UdSSR wurde 1948 der erste Computer entwickelt.

Die Geschichte der Computerentwicklung wird normalerweise nach Generationen betrachtet.

Erste Generation(1946-1960) – ϶ᴛᴏ die Zeit der Entstehung der Architektur von Maschinen vom Typ von Neumann, gebaut auf Vakuumröhren mit einer Geschwindigkeit von 10-20.000 Operationen/s. Computer der ersten Generation waren sperrig und unzuverlässig. Softwaretools wurden durch Maschinensprachen repräsentiert.

Im Jahr 1950 ᴦ. In der UdSSR wurde die MESM (kleine elektronische Rechenmaschine) in Betrieb genommen, und zwei Jahre später erschien eine große elektronische Rechenmaschine (10.000 Operationen/s).

Zweite Generation(1960 – 1964) – Maschinen auf Transistorbasis mit Geschwindigkeiten von bis zu Hunderttausenden Operationen pro Sekunde. Für die Organisation des externen Speichers wurden Magnettrommeln und für den Hauptspeicher Magnetkerne verwendet. Gleichzeitig wurden höhere algorithmische Sprachen wie Algol, Cobol, Fortran entwickelt, die es ermöglichten, Programme ohne Berücksichtigung des Maschinentyps zu erstellen. Der erste Computer mit den Besonderheiten der zweiten Generation war der IBM 704.

Dritte Generation(1964 – 1970) zeichnen sich dadurch aus, dass anstelle von Transistoren integrierte Schaltkreise (ICs) und Halbleiterspeicher verwendet wurden.

Die meisten Maschinen, die ihren Eigenschaften nach zur dritten Generation gehörten, gehörten zur Serie (Familie) der „System/360“-Maschinen (analog zum ES-Computer), die Mitte der 60er Jahre von IBM herausgebracht wurden. Die Maschinen dieser Serie hatten eine einheitliche Architektur und waren softwarekompatibel.

Zu dieser Zeit erschien in der UdSSR der erste Supercomputer BESM 6, der eine Produktivität von 1 Million Operationen/s hatte.

Vierte Generation(1970 – 1980) – ϶ᴛᴏ Maschinen, die auf großen integrierten Schaltkreisen (LSI) basieren. Solche Schaltkreise enthalten bis zu mehrere Zehntausend Elemente pro Chip. Computer dieser Generation führen Dutzende und Hunderte Millionen Operationen pro Sekunde aus.

Im Jahr 1971. Der weltweit erste Vier-Bit-Mikroprozessor Intel 4004 mit 2300 Transistoren auf einem Chip erschien, und ein Jahr später erschien der Acht-Bit-Prozessor Intel 8008. Die Entwicklung von Mikroprozessoren diente als Grundlage für die Entwicklung eines Personal Computers (PC). , ᴛ.ᴇ. Ein Gerät, das die gleichen Funktionen wie ein großer Computer ausführt, aber für die Verwendung durch einen Benutzer konzipiert ist.

1973 ᴦ. Xerox erstellte den ersten Prototyp eines Personal Computers.

1974 ᴦ. der erste kommerziell vertriebene Personalcomputer Altair-8800 erschien, für den Ende 1975 ᴦ. Paul Allen und Bill Gates haben einen Dolmetscher für die BASIC-Sprache geschrieben.

Im August 1981 ᴦ. IBM hat den IBM-PC herausgebracht. Als Hauptmikroprozessor kam der damals neue 16-Bit-Mikroprozessor Intel 8088 zum Einsatz. Der PC wurde nach den Prinzipien der offenen Architektur gebaut. Nutzer konnten ihre Computer selbstständig aufrüsten und mit Zusatzgeräten verschiedener Hersteller ausstatten. Nach ein oder zwei Jahren nahm der IBM-PC eine führende Position auf dem Markt ein und verdrängte 8-Bit-Computermodelle.

Heutzutage gibt es viele Arten von Computern, die nach ihrer Elementbasis, Funktionsprinzipien, Kosten, Größe, Leistung, Zweck und Anwendungsbereichen klassifiziert werden.

Supercomputer Und Großrechner(Mainframes) – werden für komplexe wissenschaftliche Berechnungen oder zur Verarbeitung großer Informationsflüsse in großen Unternehmen verwendet. Οʜᴎ sind in der Regel die Hauptcomputer von Unternehmenscomputernetzwerken.

Mini- Und Mikrocomputer zur Erstellung von Steuerungssystemen für große und mittelständische Unternehmen.

Persönliche Computer für den Endverbraucher bestimmt. PCs wiederum werden in Desktop- (Desktop-), tragbare (Notebook-) und Pocket- (Pamtop-) Modelle unterteilt.

Geschichte der Entwicklung der Computertechnologie – Konzept und Typen. Einordnung und Merkmale der Kategorie „Entwicklungsgeschichte der Computertechnik“ 2017, 2018.

  • - Geschichte der Entwicklung der Computertechnologie

    Der Bedarf, die Datenverarbeitung, einschließlich Berechnungen, zu automatisieren, ist schon vor langer Zeit entstanden. Es wird angenommen, dass historisch gesehen das erste und dementsprechend einfachste Zählgerät der Abakus war, der sich auf handgehaltene Zählgeräte bezieht. Abakus - Zählbrett...


  • - Geschichte der Entwicklung der Computertechnologie

    Die Geschichte der Entwicklung der Computertechnologie reicht weit zurück. Zurück im 14. Jahrhundert. Leonardo da Vinci entwickelte einen Entwurf für ein 13-Bit-Addiergerät. Das aktuelle Modell wurde 1642 vom berühmten französischen Physiker, Mathematiker und Ingenieur Blaise Pascal gebaut. Sein... .


  • - KURZE GESCHICHTE DER ENTWICKLUNG DER COMPUTERTECHNIK.

    1623 Die erste „Zählmaschine“ von William Schickard. Dieses recht umständliche Gerät konnte einfache arithmetische Operationen (Addition, Subtraktion) mit 7-stelligen Zahlen durchführen. 1644 Blaise Pascals „Rechner“ ist die erste wirklich beliebte Rechenmaschine...

  • Geschichte der Entstehung und Entwicklung der Computertechnologie

    In der Computertechnik gibt es eine eigentümliche Periodisierung der Entwicklung elektronischer Computer. Ein Computer wird je nach der Art der darin verwendeten Hauptelemente oder der Technologie ihrer Herstellung in die eine oder andere Generation eingeteilt. Es ist klar, dass die Grenzen der Generationen zeitlich sehr fließend sind, da gleichzeitig Computer verschiedener Art tatsächlich hergestellt wurden; Für eine einzelne Maschine lässt sich die Frage, ob sie zu der einen oder anderen Generation gehört, ganz einfach klären.

    Schon in der Zeit der alten Kulturen mussten Menschen Probleme im Zusammenhang mit Handelsberechnungen, Zeitberechnungen, der Bestimmung der Landfläche usw. lösen. Die Zunahme des Umfangs dieser Berechnungen führte sogar dazu, dass speziell ausgebildete Personen eingeladen wurden von einem Land ins andere reisen und sich gut mit arithmetischen Zähltechniken auskennen. Deshalb mussten früher oder später Geräte auftauchen, die alltägliche Berechnungen erleichtern würden. So wurden im antiken Griechenland und im antiken Rom Zählgeräte namens Abakus geschaffen. Der Abakus wird auch römischer Abakus genannt. Bei diesen Abakus handelte es sich um ein Brett aus Knochen, Stein oder Bronze mit Rillen, sogenannten Streifen. In den Nischen befanden sich Dominosteine, und die Zählung erfolgte durch Bewegen der Dominosteine.

    In den Ländern des Alten Ostens gab es chinesische Abakusse. An jedem Faden oder Draht dieses Abakus befanden sich fünf Dominosteine. Gezählt wurde in Einsen und Fünfern. In Russland wurde der russische Abakus, der im 16. Jahrhundert aufkam, für arithmetische Berechnungen verwendet, mancherorts ist der Abakus jedoch noch heute zu finden.

    Die Entwicklung von Zählgeräten hielt mit den Errungenschaften der Mathematik Schritt. Bald nach der Entdeckung des Logarithmus im Jahr 1623 wurde der Rechenschieber vom englischen Mathematiker Edmond Gunther erfunden. Der Rechenschieber sollte ein langes Leben haben: vom 17. Jahrhundert bis heute.

    Allerdings bedeuten weder der Abakus, noch der Abakus, noch der Rechenschieber eine Mechanisierung des Rechenvorgangs. Im 17. Jahrhundert erfand der herausragende französische Wissenschaftler Blaise Pascal ein grundlegend neues Rechengerät – die Rechenmaschine. B. Pascal basierte bei ihrer Arbeit auf der bekannten Idee, Berechnungen mithilfe von Metallzahnrädern durchzuführen. 1645 baute er die erste Addiermaschine und 1675 gelang es Pascal, eine echte Maschine zu schaffen, die alle vier Rechenoperationen ausführte. Fast zeitgleich mit Pascal 1660 - 1680. Die Rechenmaschine wurde vom großen deutschen Mathematiker Gottfried Leibniz entworfen.

    Die Rechenmaschinen von Pascal und Leibniz wurden zum Prototyp der Addiermaschine. Das erste Arithmometer für vier Rechenoperationen, das arithmetische Anwendung fand, wurde nur hundert Jahre später, im Jahr 1790, vom deutschen Uhrmacher Hahn gebaut. Anschließend wurde die Vorrichtung der Addiermaschine von vielen Mechanikern aus England, Frankreich, Italien, Russland und der Schweiz verbessert. Arithmometer wurden zur Durchführung komplexer Berechnungen bei der Konstruktion und dem Bau von Schiffen eingesetzt. Brücken, Gebäude, bei Finanztransaktionen. Doch die Produktivität der Rechenmaschinen blieb gering; die Automatisierung von Berechnungen war ein dringendes Erfordernis der Zeit.

    Im Jahr 1833 entwickelte der englische Wissenschaftler Charles Babage, der an der Erstellung von Navigationstabellen beteiligt war, ein Projekt für eine „analytische Maschine“. Nach seinem Plan sollte aus dieser Maschine eine riesige programmgesteuerte Addiermaschine werden. Babages Maschine enthielt auch Rechen- und Speichergeräte. Seine Maschine wurde zum Prototyp zukünftiger Computer. Aber es verwendete alles andere als perfekte Komponenten; zum Beispiel nutzte es Zahnräder, um sich die Ziffern einer Dezimalzahl zu merken. Babidge scheiterte an der Umsetzung seines Projekts aufgrund unzureichender Technologieentwicklung und die „Analysemaschine“ geriet für eine Weile in Vergessenheit.

    Nur 100 Jahre später erregte Babidges Maschine die Aufmerksamkeit der Ingenieure. Ende der 30er Jahre des 20. Jahrhunderts entwickelte der deutsche Ingenieur Konrad Zuse die erste binäre Digitalmaschine Z1. Dabei wurden in großem Umfang elektromechanische Relais eingesetzt, also mechanische Schalter, die durch elektrischen Strom betätigt wurden. 1941 entwickelte K. Wujie die Z3-Maschine, die vollständig per Software gesteuert wurde.

    1944 baute der Amerikaner Howard Aiken bei einem der IBM-Unternehmen die Mark-1, eine für die damalige Zeit leistungsstarke Maschine. Diese Maschine verwendete mechanische Elemente – Zählräder – zur Darstellung von Zahlen, und elektromechanische Relais dienten zur Steuerung.

    Computergenerationen

    Es ist zweckmäßig, die Entwicklungsgeschichte von Computern anhand der Idee von Computergenerationen zu beschreiben. Jede Computergeneration zeichnet sich durch Designmerkmale und -fähigkeiten aus. Beginnen wir mit der Beschreibung jeder Generation, aber wir müssen bedenken, dass die Einteilung von Computern in Generationen bedingt ist, da gleichzeitig Maschinen unterschiedlichen Niveaus hergestellt wurden.

    Erste Generation

    In den 40er Jahren, nach dem Zweiten Weltkrieg, kam es zu einem starken Sprung in der Entwicklung der Computertechnologie, der mit dem Aufkommen qualitativ neuer elektronischer Geräte verbunden war – Elektronenvakuumröhren, die viel schneller arbeiteten als Schaltkreise, die auf elektromechanischen Relais und Relais basierten Maschinen wurden schnell durch produktivere und zuverlässige elektronische Computer (Computer) ersetzt. Der Einsatz von Computern hat das Spektrum der zu lösenden Probleme erheblich erweitert. Probleme, die zuvor einfach nicht gestellt wurden, wurden verfügbar: Berechnungen von Ingenieurbauwerken, Berechnungen der Planetenbewegung, ballistische Berechnungen usw.

    Der erste Computer wurde zwischen 1943 und 1946 entwickelt. in den USA und es hieß ENIAC. Diese Maschine enthielt etwa 18.000 Vakuumröhren, viele elektromechanische Relais und jeden Monat fielen etwa 2.000 Röhren aus. Das Kontrollzentrum der ENIAC-Maschine wie auch anderer früher Computer hatte einen gravierenden Nachteil: Das ausführbare Programm wurde nicht im Speicher der Maschine gespeichert, sondern auf komplexe Weise mithilfe externer Jumper akkumuliert.

    Im Jahr 1945 formulierte der berühmte Mathematiker und Physiker-Theoretiker von Neumann die allgemeinen Funktionsprinzipien universeller Rechengeräte. Laut von Neumann sollte der Computer durch ein Programm mit sequenzieller Ausführung von Befehlen gesteuert werden und das Programm selbst sollte im Speicher der Maschine gespeichert werden. Der erste Computer mit gespeichertem Programm wurde 1949 in England gebaut.

    1951 wurde MESM in der UdSSR gegründet; diese Arbeit wurde in Kiew am Institut für Elektrodynamik unter der Leitung des größten Entwicklers von Computertechnologie S. A. Lebedev durchgeführt.

    Computer wurden ständig verbessert, wodurch ihre Leistung bis Mitte der 50er Jahre von mehreren Hundert auf mehrere Zehntausend Operationen pro Sekunde gesteigert werden konnte. Die Elektronenröhre blieb jedoch das zuverlässigste Element des Computers. Der Einsatz von Lampen begann den weiteren Fortschritt der Computertechnologie zu verlangsamen.

    Anschließend ersetzten Halbleiterbauelemente die Lampen und vollendeten damit die erste Stufe der Computerentwicklung. Computer dieser Stufe werden üblicherweise als Computer der ersten Generation bezeichnet

    Tatsächlich befanden sich Computer der ersten Generation in großen Computerräumen, verbrauchten viel Strom und mussten mit leistungsstarken Lüftern gekühlt werden. Programme für diese Computer mussten in Maschinencodes geschrieben werden, und dies konnte nur von Spezialisten durchgeführt werden, die die Details der Computerstruktur kannten.

    Zweite Generation

    Computerentwickler haben stets den Fortschritt der elektronischen Technologie verfolgt. Als Mitte der 50er Jahre Halbleitergeräte die Vakuumröhren ersetzten, begann die Umstellung von Computern auf Halbleiter.

    Halbleiterbauelemente (Transistoren, Dioden) waren erstens wesentlich kompakter als ihre Röhrenvorgänger. Zweitens hatten sie eine deutlich längere Lebensdauer. Drittens war der Energieverbrauch von Halbleitercomputern deutlich geringer. Mit der Einführung digitaler Elemente auf Halbleitergeräten begann die Entwicklung von Computern der zweiten Generation.

    Dank der Verwendung einer fortschrittlicheren Elementbasis wurden relativ kleine Computer geschaffen, und es kam zu einer natürlichen Aufteilung der Computer in große, mittlere und kleine Computer.

    In der UdSSR wurden die Kleincomputerserien „Hrazdan“ und „Nairi“ entwickelt und weit verbreitet. Die Mir-Maschine, die 1965 am Institut für Kybernetik der Akademie der Wissenschaften der Ukrainischen SSR entwickelt wurde, war in ihrer Architektur einzigartig. Es war für technische Berechnungen gedacht, die vom Benutzer selbst ohne die Hilfe eines Bedieners am Computer durchgeführt wurden.

    Zu den mittleren Computern gehörten Haushaltsmaschinen der Ural-, M-20- und Minsk-Serie. Aber der Rekord unter den Haushaltsmaschinen dieser Generation und einer der besten der Welt war BESM-6 („große elektronische Rechenmaschine“, Modell 6), das vom Team des Akademiemitglieds S. A. Lebedev entwickelt wurde. Die Leistung von BESM-6 war zwei bis drei Größenordnungen höher als die kleiner und mittlerer Computer und betrug mehr als 1 Million Operationen pro Sekunde. Im Ausland waren die am weitesten verbreiteten Maschinen der zweiten Generation Elliot (England), Siemens (Deutschland) und Stretch (USA).

    Dritte Generation

    Der nächste Wechsel der Computergenerationen erfolgte Ende der 60er Jahre, als Halbleiterbauelemente in Computergeräten durch integrierte Schaltkreise ersetzt wurden. Ein integrierter Schaltkreis (Mikroschaltkreis) ist ein kleiner Wafer aus Siliziumkristall, auf dem Hunderte und Tausende von Elementen platziert sind: Dioden, Transistoren, Kondensatoren, Widerstände usw.

    Der Einsatz integrierter Schaltkreise hat es ermöglicht, die Anzahl elektronischer Elemente in einem Computer zu erhöhen, ohne deren tatsächliche Abmessungen zu vergrößern. Die Computergeschwindigkeit wurde auf 10 Millionen Operationen pro Sekunde erhöht. Darüber hinaus wurde es für normale Benutzer möglich, Computerprogramme zu erstellen, und nicht nur für Spezialisten – Elektronikingenieure.

    In der dritten Generation erschienen große Serien von Computern, die sich in Leistung und Einsatzzweck unterschieden. Hierbei handelt es sich um eine Familie großer und mittelgroßer IBM360/370-Maschinen, die in den USA entwickelt wurden. In der Sowjetunion und in den RGW-Ländern entstanden ähnliche Maschinenserien: ES-Computer (Einheitliches Computersystem, große und mittlere Maschinen), SM-Computer (System kleiner Computer) und „Elektronik“ (Mikrocomputersystem). ).

    Die allerersten Computergeräte waren menschliche Finger. Wenn dieses Mittel nicht ausreichte, wurden Kieselsteine, Stöcke und Muscheln verwendet. Durch die Addition einer solchen Menge in Zehner und dann in Hunderter lernte eine Person, zu zählen und Mittel zum Messen von Zahlen zu verwenden. Mit Kieselsteinen und Muscheln begann die Geschichte der Entwicklung der Computertechnologie. Durch die Anordnung in verschiedenen Spalten (Rängen) und das Hinzufügen oder Entfernen der erforderlichen Anzahl an Kieselsteinen war es möglich, große Zahlen zu addieren und zu subtrahieren. Durch wiederholte Addition war es möglich, sogar eine so komplexe Operation wie die Multiplikation durchzuführen.

    Dann beginnt die Geschichte der Entwicklung der Mittel. Das erste Rechenmittel war der in Russland erfundene Abakus. In ihnen wurden Zahlen mithilfe horizontaler Hilfslinien mit Knochen in Zehner unterteilt. Sie wurden zu unverzichtbaren Helfern für Händler, Beamte, Angestellte und Manager. Diese Leute wussten, wie man Abakus einfach meisterhaft benutzt. Anschließend drang ein solches notwendiges Gerät nach Europa ein.

    Das allererste mechanische Gerät zum Zählen, das in der Geschichte der Entwicklung der Computertechnologie bekannt ist, war die Rechenmaschine, die 1642 vom herausragenden französischen Wissenschaftler Blaise Pascal gebaut wurde. Sein mechanischer „Computer“ konnte Operationen wie Addition und Subtraktion ausführen. Dieses Auto hieß „Pascalina“ und bestand aus einem ganzen Komplex, in dem Räder mit Nummern von 0 bis 9 vertikal montiert waren. Wenn das Rad einen vollen Kreis drehte, hakte es das benachbarte Rad ein und drehte es um eine Zahl. Die Anzahl der Räder bestimmte die Anzahl der Ziffern des Computers. Wären fünf Räder darauf verbaut, könnte er bereits Operationen mit riesigen Zahlen bis 99999 ausführen.

    Dann entwickelte der deutsche Mathematiker Leibniz 1673 ein Gerät, das nicht nur subtrahieren und addieren, sondern auch dividieren und multiplizieren konnte. Im Gegensatz dazu waren die Räder mit Zahnrädern versehen und verfügten über neun unterschiedlich lange Zähne, was so unglaublich „komplexe“ Vorgänge wie Multiplikation und Division gewährleistete. Technologie kennt viele Namen, aber ein Name ist auch Laien bekannt. Dies ist ein englischer Mathematiker. Er wird zu Recht als Vater aller modernen Computertechnologie bezeichnet. Er kam auf die Idee, dass ein Computer ein Gerät braucht, das Zahlen speichert. Darüber hinaus muss dieses Gerät nicht nur Zahlen speichern, sondern dem Computer auch Befehle geben, was er mit diesen Zahlen tun soll.

    Babbages Idee bildete die Grundlage für das Design und die Entwicklung aller modernen Computer. Ein solcher Block in einem Computerprozessor. Der Wissenschaftler hinterließ jedoch keine Zeichnungen oder Beschreibungen der von ihm erfundenen Maschine. Dies tat einer seiner Schüler in seinem Artikel, den er auf Französisch verfasste. Der Artikel wurde von Gräfin Ada Augusta Lovelace, der Tochter des berühmten Dichters George Byron, gelesen, die ihn ins Englische übersetzte und eigene Programme für diese Maschine entwickelte. Dank ihr erhielt die Geschichte der Entwicklung der Computertechnologie eine der fortschrittlichsten Programmiersprachen – ADA.

    Das 20. Jahrhundert gab der Entwicklung der Computertechnologie im Zusammenhang mit Elektrizität neue Impulse. Es wurde ein elektronisches Gerät erfunden, das elektrische Signale speicherte – ein Röhrenauslöser. Die ersten mit seiner Hilfe erstellten Computer konnten tausende Male schneller zählen als die fortschrittlichsten mechanischen Rechenmaschinen, waren aber immer noch sehr sperrig. Die ersten Computer wogen etwa 30 Tonnen und nahmen einen Raum von mehr als 100 Quadratmetern ein. Meter. Eine weitere Entwicklung wurde mit dem Aufkommen einer äußerst wichtigen Erfindung erreicht – dem Transistor. Nun, moderne Computertechnologie ist ohne den Einsatz eines Mikroprozessors – eines komplexen integrierten Schaltkreises, der im Juni 1971 entwickelt wurde – undenkbar. Dies ist eine kurze Geschichte der Entwicklung der Computertechnologie. Moderne Errungenschaften in Wissenschaft und Technik haben das Niveau moderner Computer auf ein beispielloses Niveau gehoben.