Entwicklung der Computertechnologie. Geschichte der Entwicklung der Computertechnologie. Generationen von Computern (Computern). Aktualisierung neuen Wissens

Das erste Gerät, das das Zählen erleichtern sollte, war der Abakus. Mit Hilfe von Abakus-Dominosteinen war es möglich, Additions- und Subtraktionsoperationen sowie einfache Multiplikationen durchzuführen.

1642 – Der französische Mathematiker Blaise Pascal entwarf die erste mechanische Addiermaschine, die Pascalina, die mechanisch Zahlen addieren konnte.

1673 – Gottfried Wilhelm Leibniz entwarf eine Rechenmaschine, die die vier Rechenoperationen mechanisch ausführen konnte.

Erste Hälfte des 19. Jahrhunderts - Der englische Mathematiker Charles Babbage versuchte, ein universelles Rechengerät, also einen Computer, zu bauen. Babbage nannte es die Analytical Engine. Er stellte fest, dass ein Computer über Speicher verfügen und von einem Programm gesteuert werden muss. Laut Babbage ist ein Computer ein mechanisches Gerät, für das Programme mithilfe von Lochkarten eingestellt werden – Karten aus dickem Papier mit durch Löcher aufgedruckten Informationen (damals waren sie bereits in Webstühlen weit verbreitet).

1941 – Der deutsche Ingenieur Konrad Zuse baute einen kleinen Computer auf Basis mehrerer elektromechanischer Relais.

1943 – Howard Aiken entwickelte in einem der IBM-Unternehmen in den USA einen Computer namens „Mark-1“. Es ermöglichte die Durchführung von Berechnungen um ein Hundertfaches schneller als von Hand (mit einer Rechenmaschine) und wurde für militärische Berechnungen verwendet. Es nutzte eine Kombination aus elektrischen Signalen und mechanischen Antrieben. „Mark-1“ hatte Abmessungen: 15 * 2-5 m und enthielt 750.000 Teile. Die Maschine war in der Lage, zwei 32-Bit-Zahlen in 4 Sekunden zu multiplizieren.

1943 – In den USA begann eine Gruppe von Spezialisten unter der Leitung von John Mauchly und Prosper Eckert mit dem Bau des ENIAC-Computers auf Basis von Vakuumröhren.

1945 – Der Mathematiker John von Neumann wurde mit der Arbeit an ENIAC beauftragt und erstellte einen Bericht über diesen Computer. In seinem Bericht formulierte von Neumann die allgemeinen Funktionsprinzipien von Computern, also universellen Rechengeräten. Bis heute werden die allermeisten Computer nach den Prinzipien von John von Neumann hergestellt.

1947 – Eckert und Mauchly beginnen mit der Entwicklung der ersten elektronischen Serienmaschine UNIVAC (Universal Automatic Computer). Das erste Modell der Maschine (UNIVAC-1) wurde für das US Census Bureau gebaut und im Frühjahr 1951 in Betrieb genommen. Auf Basis der ENIAC- und EDVAC-Rechner entstand der synchrone, sequentielle Rechner UNIVAC-1. Es arbeitete mit einer Taktfrequenz von 2,25 MHz und enthielt etwa 5.000 Vakuumröhren. Die interne Speicherkapazität von 1000 12-Bit-Dezimalzahlen wurde auf 100 Quecksilberverzögerungsleitungen implementiert.

1949 – Der englische Forscher Mornes Wilkes baute den ersten Computer, der von Neumanns Prinzipien verkörperte.

1951 – J. Forrester veröffentlichte einen Artikel über die Verwendung von Magnetkernen zur Speicherung digitaler Informationen. Die Whirlwind-1-Maschine war die erste, die einen Magnetkernspeicher verwendete. Es bestand aus 2 Würfeln mit 32-32-17 Kernen, die die Speicherung von 2048 Wörtern für 16-Bit-Binärzahlen mit einem Paritätsbit ermöglichten.

1952 – IBM bringt seinen ersten industriellen elektronischen Computer auf den Markt, den IBM 701, einen synchronen Parallelcomputer mit 4.000 Vakuumröhren und 12.000 Dioden. Eine verbesserte Version der IBM 704-Maschine zeichnete sich durch hohe Geschwindigkeit aus, sie verwendete Indexregister und stellte Daten in Gleitkommaform dar.

Nach dem Computer IBM 704 erschien der IBM 709, der architektonisch den Maschinen der zweiten und dritten Generation nahe kam. In dieser Maschine wurde erstmals die indirekte Adressierung verwendet und es traten erstmals Eingabe-Ausgabe-Kanäle auf.

1952 – Remington Rand bringt den Computer UNIVAC-t 103 auf den Markt, der als erster Software-Interrupts nutzte. Mitarbeiter von Remington Rand verwendeten eine algebraische Form von Schreibalgorithmen namens „Short Code“ (der erste Interpreter, der 1949 von John Mauchly entwickelt wurde).

1956 – IBM entwickelt schwebende Magnetköpfe auf einem Luftkissen. Ihre Erfindung ermöglichte die Schaffung eines neuen Speichertyps – Plattenspeicher (SD), dessen Bedeutung in den folgenden Jahrzehnten der Entwicklung der Computertechnologie voll erkannt wurde. Die ersten Plattenspeichergeräte erschienen in IBM 305- und RAMAC-Maschinen. Letzterer verfügte über ein Paket bestehend aus 50 Metallscheiben mit Magnetbeschichtung, die mit einer Geschwindigkeit von 12.000 U/min rotierten. /Mindest. Auf der Oberfläche der Diskette befanden sich 100 Spuren zur Aufzeichnung von Daten mit jeweils 10.000 Zeichen.

1956 – Ferranti bringt den Pegasus-Computer auf den Markt, in dem das Konzept der General Purpose Registers (GPR) erstmals implementiert wurde. Mit dem Aufkommen von RON wurde die Unterscheidung zwischen Indexregistern und Akkumulatoren aufgehoben, und dem Programmierer standen nicht mehr ein, sondern mehrere Akkumulatorenregister zur Verfügung.

1957 – eine Gruppe unter der Leitung von D. Backus schloss die Arbeit an der ersten höheren Programmiersprache namens FORTRAN ab. Die erstmals auf dem IBM 704-Computer implementierte Sprache trug zur Erweiterung des Computerumfangs bei.

1960er Jahre - 2. Generation von Computern, Computerlogikelemente werden auf Basis von Halbleitertransistorbauelementen implementiert, algorithmische Programmiersprachen wie Algol, Pascal und andere werden entwickelt.

1970er Jahre - Computer der 3. Generation, integrierte Schaltkreise mit Tausenden von Transistoren auf einem Halbleiterwafer. Es wurden Betriebssysteme und strukturierte Programmiersprachen erstellt.

1974 – Mehrere Unternehmen kündigten die Entwicklung eines Personalcomputers auf Basis des Intel-8008-Mikroprozessors an – ein Gerät, das die gleichen Funktionen wie ein großer Computer ausführt, aber für einen Benutzer konzipiert ist.

1975 – der erste kommerziell vertriebene Personalcomputer Altair-8800 auf Basis des Intel-8080-Mikroprozessors erschien. Dieser Computer verfügte nur über 256 Byte RAM und es gab weder Tastatur noch Bildschirm.

Ende 1975 – Paul Allen und Bill Gates (zukünftige Gründer von Microsoft) entwickelten einen Basic-Sprachinterpreter für den Altair-Computer, der es Benutzern ermöglichte, einfach mit dem Computer zu kommunizieren und problemlos Programme dafür zu schreiben.

August 1981 – IBM stellt den IBM PC Personal Computer vor. Der Hauptmikroprozessor des Computers war ein 16-Bit-Intel-8088-Mikroprozessor, der das Arbeiten mit 1 Megabyte Speicher ermöglichte.

1980er Jahre - 4. Generation von Computern, die auf großen integrierten Schaltkreisen basieren. Mikroprozessoren werden in Form eines einzelnen Chips in Massenproduktion von Personalcomputern implementiert.

1990er Jahre — 5. Computergeneration, ultragroße integrierte Schaltkreise. Prozessoren enthalten Millionen von Transistoren. Die Entstehung globaler Computernetzwerke für den Massengebrauch.

2000er Jahre — 6. Computergeneration. Integration von Computern und Haushaltsgeräten, eingebettete Computer, Entwicklung von Network Computing.

Zu allen Zeiten, seit der Antike, mussten die Menschen zählen. Zum Zählen benutzten sie zunächst ihre eigenen Finger oder Kieselsteine. Allerdings sind selbst einfache Rechenoperationen mit großen Zahlen für das menschliche Gehirn schwierig. Daher wurde bereits in der Antike das einfachste Zählinstrument erfunden – der Abakus, der vor mehr als 15 Jahrhunderten in den Mittelmeerländern erfunden wurde. Dieser Prototyp moderner Rechnungen bestand aus auf Stäben aufgereihten Dominosteinen und wurde von Kaufleuten verwendet.

Die Abakusstäbe stellen im arithmetischen Sinne Nachkommastellen dar. Jeder Dominostein auf der ersten Stange hat einen Wert von 1, auf der zweiten Stange - 10, auf der dritten Stange - 100 usw. Bis ins 17. Jahrhundert blieb der Abakus praktisch das einzige Zählinstrument.

In Russland erschien im 16. Jahrhundert der sogenannte russische Abakus. Sie basieren auf dem dezimalen Zahlensystem und ermöglichen die schnelle Durchführung arithmetischer Operationen (Abb. 6).

Reis. 6. Abakus

Im Jahr 1614 erfand der Mathematiker John Napier den Logarithmus.

Ein Logarithmus ist ein Exponent, auf den eine Zahl erhöht werden muss (die Basis des Logarithmus), um eine andere gegebene Zahl zu erhalten. Napiers Entdeckung bestand darin, dass jede Zahl auf diese Weise ausgedrückt werden kann und dass die Summe der Logarithmen zweier beliebiger Zahlen gleich dem Logarithmus des Produkts dieser Zahlen ist. Dies ermöglichte es, die Multiplikation auf die einfachere Addition zu reduzieren. Napier erstellte Logarithmentabellen. Um zwei Zahlen zu multiplizieren, müssen Sie sich ihre Logarithmen in dieser Tabelle ansehen, sie addieren und in der Umkehrtabelle die Zahl finden, die dieser Summe entspricht – Antilogarithmen. Basierend auf diesen Tabellen entwickelten 1654 R. Bissacar und 1657 unabhängig davon S. Partridge einen rechteckigen Rechenschieber: das wichtigste Rechengerät des Ingenieurs bis zur Mitte des 20. Jahrhunderts (Abb. 7).

Reis. 7. Rechenschieber

Im Jahr 1642 erfand Blaise Pascal eine mechanische Rechenmaschine mit dem Dezimalzahlensystem. Jede Dezimalstelle wurde durch ein Rad mit zehn Zähnen dargestellt, das Zahlen von 0 bis 9 anzeigte. Insgesamt gab es 8 Räder, das heißt, Pascals Maschine war 8-Bit.

Beim digitalen Rechnen gewann jedoch nicht das dezimale Zahlensystem, sondern das binäre Zahlensystem. Der Hauptgrund dafür ist, dass es in der Natur viele Phänomene mit zwei stabilen Zuständen gibt, zum Beispiel „an/aus“, „es liegt Spannung an/keine Spannung“, „falsche Aussage/wahre Aussage“, aber es gibt keine Phänomene mit zehn stabile Staaten. Warum ist das Dezimalsystem so weit verbreitet? Ja, einfach weil eine Person zehn Finger an zwei Händen hat und diese bequem zum einfachen mentalen Zählen verwendet werden können. Beim elektronischen Rechnen ist es jedoch viel einfacher, ein binäres Zahlensystem mit nur zwei stabilen Elementzuständen und einfachen Additions- und Multiplikationstabellen zu verwenden. In modernen digitalen Rechenmaschinen – Computern – wird das Binärsystem nicht nur zur Aufzeichnung von Zahlen verwendet, mit denen Rechenoperationen durchgeführt werden müssen, sondern auch zur Aufzeichnung der Befehle selbst für diese Berechnungen und sogar ganzer Operationsprogramme. In diesem Fall werden alle Berechnungen und Operationen in einem Computer auf einfachste arithmetische Operationen mit Binärzahlen reduziert.



Einer der ersten, der sich für das Binärsystem interessierte, war der große deutsche Mathematiker Gottfried Leibniz. 1666, im Alter von zwanzig Jahren, entwickelte er in seinem Werk „Über die Kunst der Kombinatorik“ eine allgemeine Methode, die es erlaubt, jeden Gedanken auf präzise formale Aussagen zu reduzieren. Dies eröffnete die Möglichkeit, die Logik (Leibniz nannte sie die Gesetze des Denkens) aus dem Bereich der Wörter auf den Bereich der Mathematik zu übertragen, wo die Beziehungen zwischen Objekten und Aussagen präzise und eindeutig definiert sind. Somit war Leibniz der Begründer der formalen Logik. Er erforschte das binäre Zahlensystem. Gleichzeitig verlieh Leibniz ihm eine gewisse mystische Bedeutung: Er verband die Zahl 1 mit Gott und 0 mit Leere. Aus diesen beiden Figuren ist seiner Meinung nach alles passiert. Und mit Hilfe dieser beiden Zahlen können Sie jedes mathematische Konzept ausdrücken. Leibniz war der erste, der vorschlug, dass das Binärsystem eine universelle logische Sprache werden könnte.

Leibniz träumte vom Aufbau einer „universellen Wissenschaft“. Er wollte die einfachsten Konzepte hervorheben, mit deren Hilfe nach bestimmten Regeln Konzepte beliebiger Komplexität formuliert werden können. Er träumte davon, eine universelle Sprache zu schaffen, in der alle Gedanken in Form mathematischer Formeln niedergeschrieben werden könnten. Ich dachte an eine Maschine, die aus Axiomen Theoreme ableiten und logische Aussagen in arithmetische umwandeln könnte. Im Jahr 1673 entwickelte er eine neuartige Addiermaschine – einen mechanischen Rechner, der nicht nur Zahlen addiert und subtrahiert, sondern auch multipliziert, dividiert, potenziert und Quadrat- und Kubikwurzeln zieht. Es wurde das binäre Zahlensystem verwendet.

Die universelle logische Sprache wurde 1847 vom englischen Mathematiker George Boole geschaffen. Er entwickelte die Aussagenrechnung, die ihm zu Ehren später den Namen Boolesche Algebra erhielt. Es stellt formale Logik dar, übersetzt in die strenge Sprache der Mathematik. Die Formeln der Booleschen Algebra ähneln im Aussehen den Formeln der Algebra, die wir aus der Schule kennen. Diese Ähnlichkeit ist jedoch nicht nur äußerlich, sondern auch innerlich. Die Boolesche Algebra ist eine völlig gleichwertige Algebra, die den bei ihrer Erstellung angenommenen Gesetzen und Regeln unterliegt. Es handelt sich um ein Notationssystem, das auf beliebige Objekte anwendbar ist – Zahlen, Buchstaben und Sätze. Mit diesem System können Sie alle Aussagen kodieren, die als wahr oder falsch bewiesen werden müssen, und sie dann wie gewöhnliche Zahlen in der Mathematik manipulieren.

George Boole (1815–1864) – englischer Mathematiker und Logiker, einer der Begründer der mathematischen Logik. Entwickelte die Algebra der Logik (in den Werken „Mathematische Analyse der Logik“ (1847) und „Studie der Gesetze des Denkens“ (1854)).

Der amerikanische Mathematiker Charles Peirce spielte eine große Rolle bei der Verbreitung der Booleschen Algebra und ihrer Entwicklung.

Charles Pierce (1839–1914) war ein amerikanischer Philosoph, Logiker, Mathematiker und Naturwissenschaftler, der für seine Arbeiten zur mathematischen Logik bekannt war.

Gegenstand der Betrachtung in der Algebra der Logik sind die sogenannten Aussagen, d.h. alle Aussagen, die als wahr oder falsch gelten können: „Omsk ist eine Stadt in Russland“, „15 ist eine gerade Zahl.“ Die erste Aussage ist wahr, die zweite ist falsch.

Komplexe Aussagen, die aus einfachen Aussagen mithilfe der Konjunktionen AND, OR, IF...THEN und Negationen NOT gewonnen werden, können ebenfalls wahr oder falsch sein. Ihre Wahrheit hängt nur von der Wahrheit oder Falschheit der einfachen Aussagen ab, aus denen sie bestehen, zum Beispiel: „Wenn es draußen nicht regnet, können Sie spazieren gehen.“ Die Hauptaufgabe der Booleschen Algebra besteht darin, diese Abhängigkeit zu untersuchen. Berücksichtigt werden logische Operationen, mit denen Sie aus einfachen komplexen Aussagen konstruieren können: Negation (NOT), Konjunktion (AND), Disjunktion (OR) und andere.

Im Jahr 1804 erfand J. Jacquard eine Webmaschine zur Herstellung von Stoffen mit großen Mustern. Dieses Muster wurde mit einem ganzen Stapel Lochkarten programmiert – rechteckige Karten aus Pappe. Auf ihnen wurden Informationen über das Muster aufgezeichnet, indem in einer bestimmten Reihenfolge Löcher (Perforationen) gestanzt wurden. Beim Betrieb der Maschine wurden diese Lochkarten mit speziellen Stiften abgetastet. Auf diese mechanische Weise wurden Informationen aus ihnen gelesen, um ein programmiertes Stoffmuster zu weben. Die Jacquard-Maschine war der Prototyp computergesteuerter Maschinen des 20. Jahrhunderts.

Im Jahr 1820 entwickelte Thomas de Colmar die erste kommerzielle Addiermaschine, die multiplizieren und dividieren konnte. Seit dem 19. Jahrhundert haben Addiermaschinen bei der Durchführung komplexer Berechnungen eine weite Verbreitung gefunden.

Im Jahr 1830 versuchte Charles Babbage, eine universelle Analysemaschine zu entwickeln, die Berechnungen ohne menschliches Eingreifen durchführen sollte. Zu diesem Zweck wurden darin Programme eingeführt, die auf Lochkarten aus dickem Papier vorab aufgezeichnet wurden, indem in einer bestimmten Reihenfolge Löcher darauf angebracht wurden (das Wort „Perforation“ bedeutet „Löcher in Papier oder Pappe stanzen“). Die Programmierprinzipien für Babbages Analytical Engine wurden 1843 von Ada Lovelace, der Tochter des Dichters Byron, entwickelt.


Reis. 8. Charles Babbage


Reis. 9. Ada Lovelace

Eine analytische Engine muss sich Daten und Zwischenergebnisse von Berechnungen merken können, also über ein Gedächtnis verfügen. Diese Maschine sollte aus drei Hauptteilen bestehen: einem Gerät zum Speichern von mit Zahnrädern eingegebenen Zahlen (Speicher), einem Gerät zum Bearbeiten von Zahlen (Recheneinheit) und einem Gerät zum Bearbeiten von Zahlen mithilfe von Lochkarten (Programmsteuergerät). Die Arbeiten zur Erstellung der Analysemaschine waren noch nicht abgeschlossen, aber die darin enthaltenen Ideen trugen zum Bau der ersten Computer im 20. Jahrhundert bei (aus dem Englischen übersetzt bedeutet dieses Wort „Rechner“).

Im Jahr 1880 v.t. Odner entwickelte in Russland eine mechanische Rechenmaschine mit Zahnrädern und startete 1890 deren Massenproduktion. Anschließend wurde es bis in die 50er Jahre des 20. Jahrhunderts unter dem Namen „Felix“ produziert (Abb. 11).


Reis. 10. V.T. Odner


Reis. 11. Mechanische Addiermaschine „Felix“

Im Jahr 1888 schuf Herman Hollerith (Abb. 12) die erste elektromechanische Rechenmaschine – einen Tabulator, in dem auf Lochkarten (Abb. 13) gedruckte Informationen durch elektrischen Strom entschlüsselt wurden. Diese Maschine ermöglichte es, die Zählzeit für die US-Volkszählung um ein Vielfaches zu verkürzen. Im Jahr 1890 wurde Holleriths Erfindung erstmals bei der 11. amerikanischen Volkszählung eingesetzt. Die Arbeit, für die 500 Mitarbeiter zuvor sieben Jahre gebraucht hatten, erledigte Hollerith mit 43 Hilfskräften an 43 Tabulatoren in einem Monat.

Im Jahr 1896 gründete Hollerith ein Unternehmen namens Tabulated Machine Co. Im Jahr 1911 wurde dieses Unternehmen mit zwei anderen auf die Automatisierung der statistischen Datenverarbeitung spezialisierten Unternehmen fusioniert und erhielt 1924 seinen modernen Namen IBM (International Business Machines). Es entwickelte sich zu einem Elektronikkonzern, einem der weltweit größten Hersteller von Geräten aller Art Computer und Software, ein Anbieter globaler Informationsnetzwerke. Der Gründer von IBM war Thomas Watson Sr., der das Unternehmen im Jahr 1914 leitete, im Wesentlichen die IBM Corporation gründete und sie mehr als 40 Jahre lang leitete. Seit Mitte der 1950er Jahre nimmt IBM eine führende Position auf dem globalen Computermarkt ein. 1981 entwickelte das Unternehmen seinen ersten Personal Computer, der zum Industriestandard wurde. Mitte der 1980er Jahre kontrollierte IBM etwa 60 % der weltweiten Produktion elektronischer Computer.


Reis. 12. Thomas Watson Sr.

Reis. 13. Herman Hollerith

Ende des 19. Jahrhunderts wurde das Lochband erfunden – eine Papier- oder Zelluloidfolie, auf die mit einem Locher Informationen in Form einer Reihe von Löchern aufgebracht wurden.

Bei der Monotypie, einer 1892 von T. Lanston erfundenen Setzmaschine, wurde breites gestanztes Papierband verwendet. Die Monotypie bestand aus zwei unabhängigen Geräten: einer Tastatur und einem Gießapparat. Die Tastatur diente dazu, ein Tippprogramm auf Lochstreifen zu erstellen, und die Gießmaschine erstellte die Eingabe gemäß dem zuvor auf der Tastatur erstellten Programm aus einer speziellen typografischen Legierung – Gart.

Reis. 14. Lochkarte

Reis. 15. Lochstreifen

Der Schriftsetzer setzte sich an die Tastatur, betrachtete den vor ihm auf dem Notenständer stehenden Text und drückte die entsprechenden Tasten. Beim Anschlagen einer der Buchstabentasten stanzten die Nadeln des Stanzmechanismus mit Druckluft eine Codekombination aus Löchern in das Papierband. Diese Kombination entsprach einem bestimmten Buchstaben, Zeichen oder Leerzeichen dazwischen. Nach jedem Tastendruck bewegte sich das Papierband um einen Schritt – 3 mm. Jede horizontale Lochreihe auf dem gestanzten Papier entspricht einem Buchstaben, einem Zeichen oder einem Zwischenraum dazwischen. Die fertige (gestanzte) Spule gestanzter Papierstreifen wurde in eine Gießmaschine überführt, in der, ebenfalls unter Verwendung von Druckluft, die darauf kodierten Informationen aus dem gestanzten Papierstreifen ausgelesen und automatisch ein Buchstabensatz hergestellt wurde. Damit ist die Monotypie eine der ersten computergesteuerten Maschinen in der Geschichte der Technik. Sie gehörte zu den Heißsatzmaschinen und wich im Laufe der Zeit zunächst dem Fotosatz und dann dem elektronischen Satz.

Etwas früher als die Monotypie wurde 1881 die Pianola (oder Phonola) erfunden – ein Instrument zum automatischen Klavierspielen. Es wurde auch mit Druckluft betrieben. Bei einem Pianola entspricht jede Taste eines gewöhnlichen Klaviers oder Flügels einem Hammer, der sie anschlägt. Alle Hämmer zusammen bilden die Gegentastatur, die an der Klaviertastatur befestigt wird. In das Pianola wird ein breites Lochband aus Papier eingelegt, das auf einer Rolle aufgewickelt ist. Die Löcher im Lochstreifen werden vorab gebohrt, während der Pianist spielt – das sind eine Art „Notizen“. Wenn ein Pianola in Betrieb ist, wird das gestanzte Papierband von einer Rolle auf eine andere zurückgespult. Die darauf aufgezeichneten Informationen werden über einen pneumatischen Mechanismus gelesen. Er aktiviert Hämmer, die den Löchern im Lochstreifen entsprechen, sodass diese auf die Tasten schlagen und das Spiel des Pianisten reproduzieren. Somit war das Pianola auch eine programmgesteuerte Maschine. Dank der erhaltenen gestanzten Klavierkassetten war es möglich, die Darbietungen so bemerkenswerter Pianisten der Vergangenheit wie des Komponisten A.N. wiederherzustellen und mit modernen Methoden neu aufzunehmen. Skrjabin. Das Pianola wurde von den berühmten Komponisten und Pianisten Rubinstein, Paderewski und Busoni verwendet.

Später wurden Informationen von Lochstreifen und Lochkarten mithilfe elektrischer Kontakte gelesen – Metallbürsten, die bei Kontakt mit einem Loch einen Stromkreis schlossen. Dann wurden die Bürsten durch Fotozellen ersetzt und das Lesen der Informationen erfolgte optisch und berührungslos. Auf diese Weise wurden in den ersten digitalen Computern Informationen aufgezeichnet und gelesen.

Logische Operationen sind eng mit dem Alltag verbunden.

Mit einem ODER-Element für zwei Eingänge, zwei UND-Elementen für zwei Eingänge und einem NICHT-Element können Sie eine logische Schaltung eines binären Halbaddierers aufbauen, der in der Lage ist, die binäre Additionsoperation zweier einstelliger Binärzahlen durchzuführen (d. h. die zu erfüllen). Regeln der binären Arithmetik):

0 +0 =0; 0+1=1; 1+0=1; 1+1=0. Dabei wird das Übertragsbit zugewiesen.

Eine solche Schaltung enthält jedoch keinen dritten Eingang, an den ein Übertragssignal vom vorherigen Bit der Binärzahlensumme angelegt werden kann. Daher wird der Halbaddierer nur im niedrigstwertigen Bit der Logikschaltung zum Summieren von Mehrbit-Binärzahlen verwendet, wo kein Übertragssignal vom vorherigen Binärbit vorhanden sein kann. Ein vollständiger Binäraddierer addiert zwei Mehrbit-Binärzahlen und berücksichtigt dabei die Übertragssignale aus der Addition in den vorherigen Binärbits.

Durch die Kaskadenschaltung binärer Addierer erhält man eine logische Addiererschaltung für Binärzahlen mit beliebig vielen Stellen.

Mit einigen Modifikationen werden diese Logikschaltungen auch zum Subtrahieren, Multiplizieren und Dividieren von Binärzahlen verwendet. Mit ihrer Hilfe wurden die Rechengeräte moderner Computer gebaut.

Im Jahr 1937 schuf George Stibitz (Abb. 16) aus gewöhnlichen elektromechanischen Relais einen binären Addierer – ein Gerät, das in der Lage ist, Zahlen im Binärcode zu addieren. Und auch heute noch ist der Binäraddierer einer der Hauptbestandteile eines jeden Computers, die Basis seines Rechengeräts.


Reis. 16. George Stibitz

1937–1942 John Atanasoff (Abb. 17) erstellte ein Modell des ersten Computers, der mit Vakuumröhren lief. Es wurde das binäre Zahlensystem verwendet. Zur Dateneingabe und Ausgabe der Berechnungsergebnisse wurden Lochkarten verwendet. Die Arbeiten an dieser Maschine waren 1942 fast abgeschlossen, kriegsbedingt wurde jedoch die weitere Förderung eingestellt.


Reis. 17. John Atanasoff

1937 entwickelte Konrad Zuse (Abb. 12) seinen ersten Computer Z1 auf Basis elektromechanischer Relais. Die Ausgangsdaten wurden über eine Tastatur eingegeben und das Ergebnis der Berechnungen auf einem Panel mit vielen Glühbirnen angezeigt. 1938 schuf K. Zuse ein verbessertes Modell Z2. Programme wurden mit Lochstreifen eingegeben. Es wurde hergestellt, indem Löcher in gebrauchten 35-mm-Fotofilm gestanzt wurden. 1941 baute K. Zuse einen funktionierenden Computer Z3 und später Z4, basierend auf dem binären Zahlensystem. Sie wurden für Berechnungen bei der Herstellung von Flugzeugen und Raketen verwendet. 1942 hatten Konrad Zuse und Helmut Schreier die Idee, den Z3 von elektromechanischen Relais auf Vakuumröhren umzustellen. Eine solche Maschine sollte 1000-mal schneller arbeiten, aber es war nicht möglich, sie zu bauen – der Krieg kam dazwischen.


Reis. 18. Konrad Zuse

In den Jahren 1943–1944 wurde in einem der IBM-Unternehmen (IBM) in Zusammenarbeit mit Wissenschaftlern der Harvard University unter der Leitung von Howard Aiken der Mark-1-Computer entwickelt. Es wog etwa 35 Tonnen. „Mark-1“ basierte auf der Verwendung elektromechanischer Relais und wurde mit auf Lochstreifen codierten Zahlen betrieben.

Bei der Erstellung wurden die Ideen von Charles Babbage in seiner Analytical Engine verwendet. Im Gegensatz zu Stiebitz und Zuse erkannte Aiken die Vorteile des binären Zahlensystems nicht und verwendete in seiner Maschine das Dezimalsystem. Die Maschine konnte Zahlen mit einer Länge von bis zu 23 Ziffern manipulieren. Um zwei solcher Zahlen zu multiplizieren, brauchte sie 4 Sekunden. 1947 wurde die Mark-2-Maschine entwickelt, die bereits das binäre Zahlensystem verwendete. In dieser Maschine dauerten Additions- und Subtraktionsoperationen durchschnittlich 0,125 Sekunden und die Multiplikation 0,25 Sekunden.

Die abstrakte Wissenschaft der logischen Algebra ist nah am praktischen Leben. Damit können Sie eine Vielzahl von Steuerungsproblemen lösen.

Auch die Ein- und Ausgangssignale elektromagnetischer Relais nehmen, wie Aussagen in der Booleschen Algebra, nur zwei Werte an. Wenn die Wicklung stromlos ist, ist das Eingangssignal 0, und wenn Strom durch die Wicklung fließt, ist das Eingangssignal 1. Wenn der Relaiskontakt geöffnet ist, ist das Ausgangssignal 0, und wenn der Kontakt geschlossen ist, ist das Ausgangssignal 0 ist 1.

Genau diese Ähnlichkeit zwischen Aussagen der Booleschen Algebra und dem Verhalten elektromagnetischer Relais fiel dem berühmten Physiker Paul Ehrenfest auf. Bereits 1910 schlug er vor, die Boolesche Algebra zur Beschreibung der Funktionsweise von Relaisschaltungen in Telefonsystemen zu verwenden. Einer anderen Version zufolge stammt die Idee, die Boolesche Algebra zur Beschreibung elektrischer Schaltkreise zu verwenden, von Peirce. 1936 kombinierte der Begründer der modernen Informationstheorie, Claude Shannon, in seiner Doktorarbeit das binäre Zahlensystem, die mathematische Logik und elektrische Schaltkreise.

Es ist praktisch, Verbindungen zwischen elektromagnetischen Relais in Stromkreisen mit den logischen Verknüpfungen NICHT, UND, ODER, WIEDERHOLEN (JA) usw. zu kennzeichnen. Beispielsweise realisiert eine Reihenschaltung von Relaiskontakten eine UND-Verknüpfung und eine Parallelschaltung dieser Kontakte eine logische ODER-Verknüpfung. Operationen UND, ODER, NICHT werden auf ähnliche Weise in elektronischen Schaltkreisen ausgeführt, wo die Rolle von Relais, die Stromkreise schließen und öffnen, von kontaktlosen Halbleiterelementen übernommen wird – Transistoren, die 1947–1948 von den amerikanischen Wissenschaftlern D. Bardeen, W. Brattain und W. entwickelt wurden .Shockley.

Elektromechanische Relais waren zu langsam. Daher begannen die Amerikaner bereits 1943 mit der Entwicklung eines Computers auf Basis von Vakuumröhren. 1946 bauten Presper Eckert und John Mauchly (Abb. 13) den ersten elektronischen Digitalcomputer, ENIAC. Sein Gewicht betrug 30 Tonnen, es nahm eine Fläche von 170 Quadratmetern ein. m Fläche. Anstelle Tausender elektromechanischer Relais enthielt ENIAC 18.000 Vakuumröhren. Die Maschine zählte im Binärsystem und führte pro Sekunde 5000 Additionen bzw. 300 Multiplikationen durch. In dieser Maschine wurde nicht nur ein Rechengerät, sondern auch ein Speicher auf Vakuumröhren aufgebaut. Numerische Daten wurden über Lochkarten eingegeben, Programme wurden in diese Maschine über Stecker und Satzfelder eingegeben, d. h. für jedes neue Programm mussten Tausende von Kontakten verbunden werden. Daher dauerte die Vorbereitung zur Lösung eines neuen Problems mehrere Tage, obwohl das Problem selbst in wenigen Minuten gelöst war. Dies war einer der Hauptnachteile einer solchen Maschine.


Reis. 19. Presper Eckert und John Mauchly

Die Arbeit dreier herausragender Wissenschaftler – Claude Shannon, Alan Turing und John von Neumann – wurde zur Grundlage für die Schaffung der Struktur moderner Computer.

Shannon Claude (geb. 1916) ist ein amerikanischer Ingenieur und Mathematiker, der Begründer der mathematischen Informationstheorie.

1948 veröffentlichte er das Werk „Mathematische Theorie der Kommunikation“ mit seiner Theorie der Informationsübertragung und -verarbeitung, die alle Arten von Nachrichten umfasste, auch solche, die über Nervenfasern in lebenden Organismen übertragen werden. Shannon führte das Konzept der Informationsmenge als Maß für die Unsicherheit des Systemzustands ein, die beim Empfang von Informationen entsteht. Er nannte dieses Maß der Unsicherheit Entropie, in Anlehnung an ein ähnliches Konzept in der statistischen Mechanik. Wenn der Beobachter Informationen erhält, nimmt die Entropie, also der Grad seiner Unkenntnis über den Zustand des Systems, ab.

Alan Turing (1912–1954) – englischer Mathematiker. Seine Hauptwerke befassen sich mit der mathematischen Logik und der Computermathematik. 1936–1937 schrieb das bahnbrechende Werk „Über berechenbare Zahlen“, in dem er das Konzept eines abstrakten Geräts einführte, das später „Turingmaschine“ genannt wurde. In diesem Gerät nahm er die grundlegenden Eigenschaften des modernen Computers vorweg. Turing nannte sein Gerät eine „universelle Maschine“, da es jedes zulässige (theoretisch lösbare) mathematische oder logische Problem lösen sollte. Die Daten müssen von einem in Zellen unterteilten Papierband eingegeben werden. Jede dieser Zellen musste entweder ein Symbol enthalten oder nicht. Die Turing-Maschine konnte vom Band eingegebene Symbole verarbeiten und sie ändern, das heißt, sie löschen und neue schreiben, entsprechend den in ihrem internen Speicher gespeicherten Anweisungen.

Neumann John von (1903–1957) – US-amerikanischer Mathematiker und Physiker, Teilnehmer an der Entwicklung von Atom- und Wasserstoffwaffen. Er wurde in Budapest geboren und lebte seit 1930 in den USA. In seinem 1945 veröffentlichten Bericht, dem ersten Werk über digitale elektronische Computer, identifizierte und beschrieb er die „Architektur“ des modernen Computers.

Bei der nächsten Maschine – EDVAC – konnte der größere interne Speicher nicht nur die Originaldaten, sondern auch das Berechnungsprogramm speichern. Diese Idee – Programme im Speicher von Maschinen zu speichern – wurde vom Mathematiker John von Neumann zusammen mit Mauchly und Eckert vertreten. Er beschrieb als Erster den Aufbau eines Universalcomputers (die sogenannte „von-Neumann-Architektur“ eines modernen Computers). Für die Universalität und den effizienten Betrieb muss ein Computer laut von Neumann eine zentrale arithmetisch-logische Einheit, ein zentrales Gerät zur Steuerung aller Vorgänge, ein Speichergerät (Speicher) und ein Informations-Ein-/Ausgabegerät enthalten und darin Programme gespeichert sein Speicher des Computers.

Von Neumann glaubte, dass ein Computer auf der Grundlage des binären Zahlensystems arbeiten, elektronisch sein und alle Operationen nacheinander ausführen sollte. Diese Prinzipien sind die Grundlage aller modernen Computer.

Eine Maschine mit Vakuumröhren arbeitete viel schneller als eine Maschine mit elektromechanischen Relais, aber die Vakuumröhren selbst waren unzuverlässig. Sie scheiterten oft. Um sie zu ersetzen, schlugen John Bardeen, Walter Brattain und William Shockley 1947 vor, die von ihnen erfundenen schaltenden Halbleiterelemente zu verwenden – Transistoren.

John Bardeen (1908–1991) – US-amerikanischer Physiker. Einer der Schöpfer des ersten Transistors (1956 Nobelpreis für Physik zusammen mit W. Brattain und W. Shockley für die Entdeckung des Transistoreffekts). Einer der Autoren der mikroskopischen Theorie der Supraleitung (zweiter Nobelpreis 1957 gemeinsam mit L. Cooper und D. Schriffen).

Walter Brattain (1902–1987) – US-amerikanischer Physiker, einer der Erfinder des ersten Transistors, Gewinner des Nobelpreises für Physik im Jahr 1956.

William Shockley (1910–1989) – US-amerikanischer Physiker, einer der Erfinder des ersten Transistors, Gewinner des Nobelpreises für Physik im Jahr 1956.

In modernen Computern sind mikroskopisch kleine Transistoren in einem integrierten Schaltkreischip in Systemen von „Gattern“ gruppiert, die logische Operationen an Binärzahlen ausführen. Mit ihrer Hilfe wurden beispielsweise die oben beschriebenen binären Addierer gebaut, die es ermöglichen, mehrstellige Binärzahlen zu addieren, zu subtrahieren, zu multiplizieren, zu dividieren und Zahlen miteinander zu vergleichen. Logische Gatter steuern nach bestimmten Regeln die Datenbewegung und die Ausführung von Anweisungen im Computer.

Die Verbesserung der ersten Computertypen führte 1951 zur Entwicklung des UNIVAC-Computers, der für den kommerziellen Einsatz bestimmt war. Es war der erste kommerziell hergestellte Computer.

Der 1952 erschienene serielle Röhrenrechner IBM 701 führte bis zu 2200 Multiplikationsoperationen pro Sekunde durch.


IBM 701-Computer

Die Initiative zur Schaffung dieses Systems lag bei Thomas Watson Jr. 1937 begann er als Handelsreisender für das Unternehmen zu arbeiten. Erst während des Krieges hörte er auf, für IBM zu arbeiten, als er Pilot bei der United States Air Force war. 1946 kehrte er zum Unternehmen zurück, wurde dessen Vizepräsident und leitete IBM von 1956 bis 1971. Während er weiterhin Mitglied des IBM-Vorstands war, fungierte Thomas Watson von 1979 bis 1981 als US-Botschafter in der UdSSR.


Thomas Watson (Jr.)

1964 kündigte IBM die Entwicklung von sechs Modellen der IBM 360-Familie (System 360) an, die die ersten Computer der dritten Generation waren. Die Modelle verfügten über ein einziges Befehlssystem und unterschieden sich voneinander in der Größe des Arbeitsspeichers und der Leistung. Bei der Erstellung von Modellen der Familie kamen eine Reihe neuer Prinzipien zum Einsatz, die die Maschinen universell machten und es ermöglichten, sie sowohl zur Lösung von Problemen in verschiedenen Bereichen der Wissenschaft und Technik als auch zur Datenverarbeitung im Bereich gleichermaßen effizient einzusetzen Management und Wirtschaft. IBM System/360 (S/360) ist eine Familie von Universalcomputern der Großrechnerklasse. Weiterentwicklungen von IBM/360 waren die Systeme 370, 390, z9 und zSeries. In der UdSSR wurde der IBM/360 unter dem Namen ES COMPUTER geklont. Sie waren softwarekompatibel mit ihren amerikanischen Prototypen. Dies ermöglichte den Einsatz westlicher Software unter Bedingungen der Unterentwicklung der heimischen „Programmierindustrie“.


IBM/360-Computer


T. Watson (Jr.) und V. Lerson am IBM/360-Computer

Die erste kleine elektronische Rechenmaschine (MESM) in der UdSSR mit Vakuumröhren wurde 1949–1951 gebaut. unter der Leitung des Akademikers S.A. Lebedeva. Unabhängig von ausländischen Wissenschaftlern S.A. Lebedev entwickelte die Prinzipien zum Aufbau eines Computers mit einem im Speicher gespeicherten Programm. MESM war die erste Maschine dieser Art. Und in den Jahren 1952–1954. Unter seiner Führung wurde die High-Speed ​​​​Electronic Calculated Machine (BESM) entwickelt, die 8.000 Operationen pro Sekunde durchführt.


Lebedew Sergej Alexejewitsch

Die Entwicklung elektronischer Computer wurde von den größten sowjetischen Wissenschaftlern und Ingenieuren I.S. geleitet. Brook, W.M. Glushkov, Yu.A. Bazilevsky, B.I. Rameev, L.I. Gutenmacher, N.P. Brusentsov.

Zur ersten Generation sowjetischer Computer gehörten Röhrencomputer – „BESM-2“, „Strela“, „M-2“, „M-3“, „Minsk“, „Ural-1“, „Ural-2“, „M - 20".

Zur zweiten Generation sowjetischer Computer gehören Halbleiter-Kleincomputer „Nairi“ und „Mir“, mittelgroße Computer für wissenschaftliche Berechnungen und Informationsverarbeitung mit einer Geschwindigkeit von 5-30.000 Operationen pro Sekunde „Minsk-2“, „Minsk-22“. , „Minsk-32“, „Ural-14“, „Razdan-2“, „Razdan-3“, „BESM-4“, „M-220“ und Kontrollcomputer „Dnepr“, „VNIIEM-3“, sowie der ultraschnelle BESM-6 mit einer Leistung von 1 Million Operationen pro Sekunde.

Die Begründer der sowjetischen Mikroelektronik waren Wissenschaftler, die aus den USA in die UdSSR emigrierten: F.G. Staros (Alfred Sarant) und I.V. Berg (Joel Barr). Sie wurden Initiatoren, Organisatoren und Leiter des Mikroelektronikzentrums in Selenograd bei Moskau.


F.G. Staros

In der zweiten Hälfte der 1960er Jahre tauchten in der UdSSR Computer der dritten Generation auf, die auf integrierten Schaltkreisen basierten. Das Unified Computer System (ES COMPUTER) und das Small Computer System (SM COMPUTER) wurden entwickelt und ihre Massenproduktion organisiert. Wie oben erwähnt, war dieses System ein Klon des amerikanischen IBM/360-Systems.

Evgeniy Alekseevich Lebedev war ein leidenschaftlicher Gegner des in den 1970er Jahren begonnenen Kopierens des amerikanischen IBM/360-Systems, das in der sowjetischen Version ES Computer genannt wurde. Die Rolle der EU-Computer bei der Entwicklung heimischer Computer ist unklar.

In der Anfangsphase führte das Aufkommen von ES-Computern zur Vereinheitlichung von Computersystemen, ermöglichte die Festlegung erster Programmierstandards und die Organisation groß angelegter Projekte im Zusammenhang mit der Implementierung von Programmen.

Der Preis dafür war die weitgehende Einschränkung der eigenen ursprünglichen Entwicklungen und die völlige Abhängigkeit von den Ideen und Konzepten von IBM, die damals alles andere als die besten waren. Der abrupte Übergang von einfach zu bedienenden sowjetischen Maschinen zur viel komplexeren Hardware und Software von IBM/360 bedeutete, dass viele Programmierer Schwierigkeiten überwinden mussten, die mit den Unzulänglichkeiten und Fehlern der IBM-Entwickler verbunden waren. Die ersten ES-Computermodelle waren in ihren Leistungsmerkmalen den damaligen Heimcomputern oft unterlegen.

Später, insbesondere in den 80er Jahren, wurde die flächendeckende Einführung von EU-Rechnern zu einem ernsthaften Hindernis für die Entwicklung von Software, Datenbanken und Dialogsystemen. Nach teuren und vorgeplanten Anschaffungen waren Unternehmen gezwungen, veraltete Computersysteme zu betreiben. Parallel dazu wurden Systeme auf kleinen Maschinen und auf Personalcomputern entwickelt, die immer beliebter wurden.

Zu einem späteren Zeitpunkt, mit Beginn der Perestroika in den Jahren 1988–89, wurde unser Land mit ausländischen Personalcomputern überschwemmt. Keine Maßnahmen könnten die Krise der EU-Computerserie stoppen. Die heimische Industrie war nicht in der Lage, auf Basis der neuen Elementbasis Analoga oder Ersatz für ES-Computer zu schaffen. Die Wirtschaft der UdSSR erlaubte es zu diesem Zeitpunkt nicht, gigantische Finanzmittel für die Herstellung mikroelektronischer Geräte aufzuwenden. Infolgedessen kam es zu einem vollständigen Übergang zu importierten Computern. Programme zur Entwicklung heimischer Computer wurden schließlich eingeschränkt. Es traten Probleme bei der Übertragung von Technologien auf moderne Computer, der Modernisierung von Technologien sowie der Beschäftigung und Umschulung Hunderttausender Fachkräfte auf.

Prognose S.A. Lebedeva war gerechtfertigt. Sowohl in den USA als auch auf der ganzen Welt folgten sie anschließend dem von ihm vorgeschlagenen Weg: Einerseits entstehen Supercomputer, andererseits eine ganze Reihe weniger leistungsstarker Computer für verschiedene Anwendungen – persönliche, spezialisierte usw.

Die vierte Generation sowjetischer Computer wurde auf der Basis von großformatigen (LSI) und ultragroßen (VLSI) integrierten Schaltkreisen implementiert.

Ein Beispiel für große Computersysteme der vierten Generation war der Multiprozessorkomplex Elbrus-2 mit einer Geschwindigkeit von bis zu 100 Millionen Operationen pro Sekunde.

In den 1950er Jahren wurde die zweite Generation von Transistorcomputern entwickelt. Dadurch wurde die Geschwindigkeit der Maschinen um das Zehnfache erhöht und Größe und Gewicht deutlich reduziert. Sie begannen, Speichergeräte mit magnetischen Ferritkernen zu verwenden, die in der Lage waren, Informationen unbegrenzt zu speichern, selbst wenn der Computer ausgeschaltet war. Sie wurden 1951–1953 von Joy Forrester entworfen. Große Informationsmengen wurden auf externen Datenträgern, etwa einem Magnetband oder einer Magnettrommel, gespeichert.

Das erste Festplattenlaufwerk in der Geschichte der Informatik (Winchester) wurde 1956 von einer Gruppe von IBM-Ingenieuren unter der Leitung von Reynold B. Johnson entwickelt. Das Gerät hieß 305 RAMAC – eine Direktzugriffsmethode zur Abrechnung und Steuerung. Der Antrieb bestand aus 50 Aluminiumscheiben mit einem Durchmesser von 24 Zoll (ca. 60 cm) und einer Dicke von jeweils 2,5 cm. Auf die Oberfläche der Aluminiumplatte wurde eine Magnetschicht aufgebracht, auf der die Aufzeichnung durchgeführt wurde. Diese gesamte Scheibenstruktur auf einer gemeinsamen Achse drehte sich im Betriebsmodus mit einer konstanten Geschwindigkeit von 1200 U/min, und das Laufwerk selbst nahm eine Fläche von 3 x 3,5 m ein. Seine Gesamtkapazität betrug 5 MB. Eines der wichtigsten Prinzipien beim Design des RAMAC 305 war, dass die Köpfe die Oberfläche der Platten nicht berührten, sondern in einem kleinen festen Abstand schwebten. Zu diesem Zweck wurden spezielle Luftdüsen verwendet, die die Strömung durch kleine Löcher in den Kopfhalterungen auf die Scheibe richteten und dadurch einen Spalt zwischen dem Kopf und der Oberfläche der rotierenden Platte erzeugten.

Die Winchester (Festplatte) bot Computerbenutzern die Möglichkeit, sehr große Informationsmengen zu speichern und gleichzeitig die benötigten Daten schnell abzurufen. Nach der Erfindung der Festplatte im Jahr 1958 wurde auf Magnetbandmedien verzichtet.

1959 erfanden D. Kilby, D. Herney, K. Lehovec und R. Noyce (Abb. 14) integrierte Schaltkreise (Chips), bei denen alle elektronischen Komponenten zusammen mit den Leitern in einem Siliziumwafer untergebracht waren. Durch den Einsatz von Chips in Computern ist es möglich, die Wege für den Stromfluss beim Schalten zu verkürzen. Die Berechnungsgeschwindigkeit hat sich verzehnfacht. Auch die Abmessungen der Maschinen haben sich deutlich verringert. Das Erscheinen des Chips ermöglichte die Entwicklung der dritten Computergeneration. Und 1964 begann IBM mit der Produktion von IBM-360-Computern auf Basis integrierter Schaltkreise.


Reis. 14. D. Kilby, D. Hurney, K. Lechovec und R. Noyce

Im Jahr 1965 entwickelte Douglas Engelbart (Abb. 15) die erste „Maus“ – einen handgehaltenen Computermanipulator. Es wurde erstmals im Apple Macintosh Personal Computer verwendet, der später im Jahr 1976 auf den Markt kam.


Reis. 19. Douglas Engelbart

Im Jahr 1971 begann IBM mit der Produktion der von Yoshiro Nakamatsu erfundenen Computerdiskette, einer austauschbaren flexiblen Magnetplatte („Diskette“) zur dauerhaften Speicherung von Informationen. Anfangs hatte die Diskette einen Durchmesser von 8 Zoll und eine Kapazität von 80 KB, dann - 5 Zoll. Die moderne 1,44-MB-Diskette, erstmals 1982 von Sony herausgebracht, ist in einem Hartplastikgehäuse untergebracht und hat einen Durchmesser von 3,5 Zoll.

Im Jahr 1969 begann in den Vereinigten Staaten der Aufbau eines Verteidigungscomputernetzwerks – dem Vorläufer des modernen weltweiten Internets.

In den 1970er Jahren wurden Nadeldrucker entwickelt, um von Computern ausgegebene Informationen zu drucken.

1971 entwickelte der Intel-Mitarbeiter Edward Hoff (Abb. 20) den ersten Mikroprozessor, den 4004, indem er mehrere integrierte Schaltkreise auf einem einzigen Siliziumchip platzierte. Obwohl er ursprünglich für den Einsatz in Taschenrechnern gedacht war, handelte es sich im Wesentlichen um einen vollständigen Mikrocomputer. Diese revolutionäre Erfindung veränderte die Vorstellung von Computern als sperrigen, schwerfälligen Monstern radikal. Der Mikroprozessor ermöglichte die Entwicklung von Computern der vierten Generation, die auf den Schreibtisch des Benutzers passen.


Reis. 20. Edward Hoff

Mitte der 1970er Jahre begannen Versuche, einen Personal Computer (PC) zu entwickeln, eine Rechenmaschine für den Privatanwender.

1974 entwickelte Edward Roberts (Abb. 21) den ersten Personal Computer, Altair, basierend auf dem Intel 8080-Mikroprozessor (Abb. 22). Doch ohne Software war es wirkungslos: Schließlich hat ein Privatanwender zu Hause keinen eigenen Programmierer „zur Hand“.


Reis. 21. Edward Roberts


Reis. 22. Erster Personalcomputer Altair

1975 erfuhren zwei Studenten der Harvard University, Bill Gates und Paul Allen, von der Entwicklung des Altair-PCs (Abb. 23). Sie erkannten als erste die dringende Notwendigkeit, Software für Personalcomputer zu schreiben, und erstellten sie innerhalb eines Monats auf der Grundlage der BASIC-Sprache für den Altair-PC. Im selben Jahr gründeten sie Microsoft, das schnell zum Marktführer für PC-Software und zum reichsten Unternehmen der Welt wurde.


Reis. 23. Bill Gates und Paul Allen


Reis. 24. Bill Gates

1973 entwickelte IBM eine magnetische Festplatte (Festplatte) für einen Computer. Diese Erfindung ermöglichte die Schaffung eines Langzeitspeichers mit großer Kapazität, der auch beim Ausschalten des Computers erhalten bleibt.

Die ersten Altair-8800-Mikrocomputer waren lediglich eine Ansammlung von Teilen, die noch zusammengebaut werden mussten. Darüber hinaus waren sie äußerst umständlich zu bedienen: Sie hatten weder einen Monitor noch eine Tastatur oder eine Maus. Informationen wurden über Schalter auf der Frontplatte eingegeben und die Ergebnisse über LED-Anzeigen angezeigt. Später begannen sie, Ergebnisse mit einem Teletyp anzuzeigen – einem Telegrafengerät mit Tastatur.

1976 entwickelte der 26-jährige Ingenieur Steve Wozniak von Hewlett-Packard einen grundlegend neuen Mikrocomputer. Er war der erste, der eine Tastatur ähnlich einer Schreibmaschinentastatur zur Eingabe von Daten und einen gewöhnlichen Fernseher zur Anzeige von Informationen verwendete. Auf seinem Bildschirm wurden Symbole in 24 Zeilen mit jeweils 40 Zeichen angezeigt. Der Computer verfügte über 8 KB Speicher, von dem die Hälfte von der integrierten BASIC-Sprache belegt war und die Hälfte vom Benutzer zur Eingabe seiner Programme genutzt werden konnte. Dieser Computer war dem Altair-8800 deutlich überlegen, der nur über 256 Byte Speicher verfügte. S. Wozniak stellte für seinen neuen Computer einen Anschluss (den sogenannten „Slot“) zum Anschluss weiterer Geräte zur Verfügung. Steve Wozniaks Freund Steve Jobs war der erste, der die Zukunftsaussichten dieses Computers erkannte und schätzte (Abb. 25). Er schlug vor, ein Unternehmen für die Serienproduktion zu gründen. Am 1. April 1976 gründeten sie das Unternehmen Apple und ließen es im Januar 1977 offiziell registrieren. Sie nannten den neuen Computer Apple-I (Abb. 26). Innerhalb von 10 Monaten gelang es ihnen, rund 200 Exemplare des Apple-I zusammenzustellen und zu verkaufen.


Reis. 25. Steve Wozniak und Steve Jobs


Reis. 26. Apple-I Personal Computer

Zu diesem Zeitpunkt arbeitete Wozniak bereits an einer Verbesserung. Die neue Version hieß Apple-II (Abb. 23). Der Computer wurde in einem Kunststoffgehäuse hergestellt, erhielt einen Grafikmodus, Sound, Farbe, erweiterten Speicher und 8 Erweiterungsanschlüsse (Steckplätze) anstelle von einem. Zum Speichern von Programmen wurde ein Kassettenrekorder verwendet. Die Basis des ersten Apple-II-Modells war wie beim Apple I der Mikroprozessor 6502 von MOS Technology mit einer Taktfrequenz von 1 Megahertz. BASIC wurde im permanenten Speicher aufgezeichnet. Die RAM-Kapazität von 4 KB wurde auf 48 KB erweitert. Die Informationen wurden auf einem Farb- oder Schwarzweißfernseher angezeigt, der im NTSC-Standardsystem für die USA arbeitet. Im Textmodus wurden 24 Zeilen mit jeweils 40 Zeichen angezeigt und im Grafikmodus betrug die Auflösung 280 x 192 Pixel (sechs Farben). Der Hauptvorteil des Apple II war die Möglichkeit, seinen Arbeitsspeicher auf bis zu 48 KB zu erweitern und 8 Anschlüsse zum Anschluss zusätzlicher Geräte zu nutzen. Dank der Verwendung von Farbgrafiken konnte es für verschiedenste Spiele eingesetzt werden (Abb. 27).


Reis. 27. Apple II Personal Computer

Dank seiner Fähigkeiten erfreut sich der Apple II bei Menschen verschiedener Berufe großer Beliebtheit. Für die Benutzer waren keine Kenntnisse in Elektronik oder Programmiersprachen erforderlich.

Der Apple II war der erste echte Personalcomputer für Wissenschaftler, Ingenieure, Anwälte, Geschäftsleute, Hausfrauen und Schulkinder.

Im Juli 1978 wurde der Apple II durch das Disk II-Laufwerk ergänzt, das seine Fähigkeiten erheblich erweiterte. Dafür wurde das Festplattenbetriebssystem Apple-DOS entwickelt. Und Ende 1978 wurde der Computer erneut verbessert und unter dem Namen Apple II Plus veröffentlicht. Jetzt könnte es im geschäftlichen Bereich zum Speichern von Informationen, zur Geschäftsabwicklung und zur Unterstützung bei der Entscheidungsfindung eingesetzt werden. Es begann mit der Entwicklung von Anwendungsprogrammen wie Texteditoren, Organizern und Tabellenkalkulationen.

1979 entwickelten Dan Bricklin und Bob Frankston VisiCalc, die weltweit erste Tabellenkalkulation. Dieses Tool eignete sich am besten für Buchhaltungsberechnungen. Die erste Version wurde für den Apple II geschrieben, der oft nur gekauft wurde, um mit VisiCalc zu arbeiten.

So wurde der Mikrocomputer innerhalb weniger Jahre, vor allem dank Apple und seinen Gründern Steven Jobs und Steve Wozniak, zu einem Personalcomputer für Menschen verschiedener Berufe.

1981 erschien der IBM PC Personal Computer, der bald zum Standard in der Computerindustrie wurde und fast alle konkurrierenden Personal Computer-Modelle vom Markt verdrängte. Die einzige Ausnahme war Apple. 1984 wurde der Apple Macintosh entwickelt, der erste Computer mit einer grafischen Oberfläche, die mit einer Maus gesteuert wurde. Dank seiner Vorteile gelang es Apple, auf dem PC-Markt zu bleiben. Es hat den Markt im Bildungs- und Verlagswesen erobert, wo die herausragenden Grafikfähigkeiten von Macintosh-Computern für Layout und Bildverarbeitung genutzt werden.

Heute kontrolliert Apple 8–10 % des weltweiten PC-Marktes und die restlichen 90 % sind IBM-kompatible PCs. Die meisten Macintosh-Computer gehören Benutzern in den Vereinigten Staaten.

1979 erschien die von Philips entwickelte optische Compact Disc (CD), die nur zum Anhören von Musikaufnahmen gedacht war.

1979 entwickelte Intel den Mikroprozessor 8088 für Personalcomputer.

Personalcomputer des IBM-PC-Modells, die 1981 von einer Gruppe von IBM-Ingenieuren unter der Leitung von William C. Lowe entwickelt wurden, verbreiteten sich. Der IBM-PC verfügte über einen Intel 8088-Prozessor mit einer Taktfrequenz von 4,77 MHz, 16 Kb Speicher, erweiterbar auf bis zu 256 Kb, und das Betriebssystem DOS 1.0. (Abb. 24). Das Betriebssystem DOS 1.0 wurde von Microsoft entwickelt. In nur einem Monat gelang es IBM, 241.683 IBM-PCs zu verkaufen. In Absprache mit Microsoft-Führungskräften zahlte IBM den Erstellern des Programms für jede auf dem IBM-PC installierte Kopie des Betriebssystems einen bestimmten Betrag. Dank der Popularität des IBM-PCs wurden die Microsoft-Manager Bill Gates und Paul Allen bald zu Milliardären und Microsoft nahm eine führende Position auf dem Softwaremarkt ein.


Reis. 28. Personalcomputermodell IBM PC

Der IBM PC nutzte das Prinzip der offenen Architektur, was es ermöglichte, bestehende PC-Designs zu verbessern und zu ergänzen. Dieses Prinzip bedeutet die Verwendung vorgefertigter Blöcke und Geräte im Design beim Zusammenbau eines Computers sowie die Standardisierung von Methoden zum Anschluss von Computergeräten.

Das Prinzip der offenen Architektur trug zur weiten Verbreitung IBM PC-kompatibler Klon-Mikrocomputer bei. Zahlreiche Unternehmen auf der ganzen Welt begannen damit, sie aus vorgefertigten Blöcken und Geräten zusammenzubauen. Anwender wiederum konnten ihre Mikrocomputer selbstständig aufrüsten und mit Zusatzgeräten von Hunderten Herstellern ausstatten.

In den späten 1990er Jahren machten IBM PC-kompatible Computer 90 % des PC-Marktes aus.

Der IBM-PC wurde bald zum Standard in der Computerindustrie und verdrängte fast alle konkurrierenden Personalcomputermodelle vom Markt. Die einzige Ausnahme war Apple. 1984 wurde der Apple Macintosh entwickelt, der erste Computer mit einer grafischen Oberfläche, die mit einer Maus gesteuert wurde. Dank seiner Vorteile gelang es Apple, auf dem PC-Markt zu bleiben. Es hat den Markt im Bildungs- und Verlagsbereich erobert, wo seine herausragenden Grafikfähigkeiten für Layout und Bildverarbeitung genutzt werden.

Heute kontrolliert Apple 8–10 % des weltweiten PC-Marktes und die restlichen 90 % sind IBM-kompatible PCs. Die meisten Macintosh-Computer gehören US-Benutzern.

In den letzten Jahrzehnten des 20. Jahrhunderts haben Computer ihre Geschwindigkeit und die Menge der verarbeiteten und gespeicherten Informationen erheblich gesteigert.

Im Jahr 1965 schlug Gordon Moore, einer der Gründer der Intel Corporation, einem führenden Unternehmen auf dem Gebiet der integrierten Computerschaltkreise – „Chips“, vor, dass sich die Anzahl der darin enthaltenen Transistoren jedes Jahr verdoppeln würde. In den nächsten 10 Jahren bewahrheitete sich diese Vorhersage, und dann schlug er vor, dass sich diese Zahl nun alle 2 Jahre verdoppeln würde. Tatsächlich verdoppelt sich die Anzahl der Transistoren in Mikroprozessoren alle 18 Monate. Informatiker nennen diesen Trend mittlerweile Mooresches Gesetz.


Reis. 29. Gordon Moore

Ein ähnliches Muster ist bei der Entwicklung und Produktion von RAM-Geräten und Informationsspeichergeräten zu beobachten. Ich habe übrigens keinen Zweifel daran, dass zum Zeitpunkt der Veröffentlichung dieses Buches viele digitale Daten hinsichtlich ihrer Kapazität und Geschwindigkeit veraltet sein werden.

Die Entwicklung von Software, ohne die die Nutzung eines Personal Computers in der Regel nicht möglich ist, und vor allem von Betriebssystemen, die die Interaktion zwischen Benutzer und PC gewährleisten, ist nicht zurückgeblieben.

1981 entwickelte Microsoft das Betriebssystem MS-DOS für seine Personalcomputer.

1983 wurde der verbesserte Personalcomputer IBM PC/XT von IBM entwickelt.

In den 1980er Jahren wurden Schwarzweiß- und Farbtintenstrahl- und Laserdrucker entwickelt, um von Computern ausgegebene Informationen zu drucken. Sie sind Nadeldruckern hinsichtlich Druckqualität und Geschwindigkeit deutlich überlegen.

In den Jahren 1983–1993 entstand das globale Computernetzwerk Internet und E-Mail, das von Millionen Benutzern auf der ganzen Welt genutzt wurde.

Im Jahr 1992 veröffentlichte Microsoft das Betriebssystem Windows 3.1 für IBM PC-kompatible Computer. Das aus dem Englischen übersetzte Wort „Windows“ bedeutet „Fenster“. Ein Betriebssystem mit Fenster ermöglicht Ihnen die gleichzeitige Arbeit mit mehreren Dokumenten. Es handelt sich um eine sogenannte „grafische Oberfläche“. Dabei handelt es sich um ein System der Interaktion mit einem PC, bei dem der Nutzer mit sogenannten „Icons“ zu tun hat: Bildern, die er mit einer Computermaus steuern kann. Dieses grafische Benutzeroberflächen- und Fenstersystem wurde erstmals 1975 im Xerox-Forschungszentrum entwickelt und auf Apple-PCs angewendet.

Im Jahr 1995 veröffentlichte Microsoft das Betriebssystem Windows-95 für IBM PC-kompatible Computer, das fortschrittlicher als Windows-3.1 war, im Jahr 1998 die Modifikation Windows-98, im Jahr 2000 Windows-2000 und im Jahr 2006 Windows XP. Für sie wurden eine Reihe von Anwendungsprogrammen entwickelt: Word-Texteditor, Excel-Tabellen, ein Programm zur Nutzung des Internets und von E-Mail – Internet Explorer, Paint-Grafikeditor, Standardanwendungsprogramme (Taschenrechner, Uhr, Dialer), Microsoft Schedule Diary , Universalplayer, Phonograph und Laserplayer.

In den letzten Jahren ist es möglich geworden, Texte und Grafiken mit Ton und bewegten Bildern auf dem Personal Computer zu kombinieren. Diese Technologie wird „Multimedia“ genannt. Als Speichermedium in solchen Multimedia-Computern werden optische CD-ROMs (Compact Disk Read Only Memory – also Nur-Lese-Speicher auf einer CD) verwendet. Äußerlich unterscheiden sie sich nicht von Audio-CDs, die in Playern und Musikcentern verwendet werden.

Die Kapazität einer CD-ROM erreicht 650 MB; hinsichtlich der Kapazität nimmt sie eine Zwischenposition zwischen Disketten und einer Festplatte ein. Zum Lesen von CDs wird ein CD-Laufwerk verwendet. Informationen auf einer CD werden in einer industriellen Umgebung nur einmal geschrieben und auf einem PC können sie nur gelesen werden. Auf CD-ROM werden verschiedenste Spiele, Enzyklopädien, Kunstalben, Karten, Atlanten, Wörterbücher und Nachschlagewerke veröffentlicht. Alle sind mit praktischen Suchmaschinen ausgestattet, die es Ihnen ermöglichen, schnell das benötigte Material zu finden. Die Speicherkapazität von zwei CD-ROMs reicht aus, um eine größere Enzyklopädie aufzunehmen als die Große Sowjetische Enzyklopädie.

In den späten 1990er Jahren wurden einmal beschreibbare CD-Rs und wiederbeschreibbare CD-RWs mit optischen CDs und Laufwerken entwickelt, mit denen der Benutzer beliebige Audio- und Videoaufnahmen nach seinen Wünschen erstellen konnte.

In den Jahren 1990–2000 wurden neben Desktop-PCs auch „Laptops“ in Form eines tragbaren Koffers und noch kleinerer Taschen-„Palmtops“ (Handhelds) auf den Markt gebracht – wie der Name schon sagt, passen sie in die Tasche und auf die Handfläche deiner Hand. Laptops sind mit einem Flüssigkristallbildschirm ausgestattet, der sich im Klappdeckel und bei Palmtops auf der Vorderseite des Gehäuses befindet.

In den Jahren 1998–2000 wurde ein Miniatur-Solid-State-„Flash-Speicher“ (ohne bewegliche Teile) entwickelt. So hat der Memory Stick-Speicher die Abmessungen und das Gewicht eines Kaugummis, und der SD-Speicher von Panasonic hat die Größe und das Gewicht einer Briefmarke. Mittlerweile beträgt das Volumen ihres unbegrenzt speicherbaren Speichers 64–128 MB und sogar 2–8 GB oder mehr.

Neben tragbaren Personalcomputern entstehen Supercomputer, um komplexe Probleme in Wissenschaft und Technik zu lösen – Wetter- und Erdbebenvorhersagen, Raketen- und Flugzeugberechnungen, Kernreaktionen, Entschlüsselung des menschlichen genetischen Codes. Sie verwenden mehrere bis mehrere Dutzend Mikroprozessoren, die parallele Berechnungen durchführen. Der erste Supercomputer wurde 1976 von Seymour Cray entwickelt.

Im Jahr 2002 wurde in Japan der Supercomputer NEC Earth Simulator gebaut, der 35,6 Billionen Operationen pro Sekunde durchführte. Heute ist er der schnellste Supercomputer der Welt.


Reis. 30. Seymour Cray


Reis. 31. Supercomputer Cray-1


Reis. 32. Supercomputer Cray-2

Im Jahr 2005 entwickelte IBM den Supercomputer Blue Gene mit einer Leistung von über 30 Billionen Operationen pro Sekunde. Es enthält 12.000 Prozessoren und hat tausendmal mehr Leistung als das berühmte Deep Blue, mit dem Weltmeister Garry Kasparov 1997 Schach spielte. IBM und Forscher des Schweizer Polytechnikums in Lausanne haben erstmals versucht, das menschliche Gehirn zu modellieren.

Im Jahr 2006 wurden Personalcomputer 25 Jahre alt. Mal sehen, wie sie sich im Laufe der Jahre verändert haben. Der erste von ihnen, ausgestattet mit einem Intel-Mikroprozessor, arbeitete mit einer Taktfrequenz von nur 4,77 MHz und verfügte über 16 KB RAM. Moderne PCs, die mit einem Pentium 4-Mikroprozessor aus dem Jahr 2001 ausgestattet sind, verfügen über eine Taktfrequenz von 3–4 GHz, RAM 512 MB – 1 GB und Langzeitspeicher (Festplatte) mit einer Kapazität von Dutzenden und Hunderten von GB und sogar 1 Terabyte. Derart gigantische Fortschritte wurden in keinem Technologiezweig außer der digitalen Datenverarbeitung beobachtet. Wäre bei der Geschwindigkeitssteigerung der Flugzeuge derselbe Fortschritt erzielt worden, dann hätten sie längst mit Lichtgeschwindigkeit geflogen.

Millionen von Computern werden in nahezu allen Bereichen der Wirtschaft, Industrie, Wissenschaft, Technik, Pädagogik und Medizin eingesetzt.

Die Hauptgründe für diesen Fortschritt sind die ungewöhnlich hohe Mikrominiaturisierungsrate digitaler elektronischer Geräte und Programmierfortschritte, die die „Kommunikation“ normaler Benutzer mit Personalcomputern einfach und bequem gemacht haben.





























































































































































Zurück vorwärts

Aufmerksamkeit! Folienvorschauen dienen nur zu Informationszwecken und stellen möglicherweise nicht alle Funktionen der Präsentation dar. Wenn Sie an dieser Arbeit interessiert sind, laden Sie bitte die Vollversion herunter.

Der Zweck der Lektion:

  1. stellen Sie die Geschichte der Entwicklung der Computertechnologie vor, die Geräte, die die Vorgänger von Computern sind, und ihre Erfinder
  2. eine Vorstellung vom Zusammenhang zwischen der Entwicklung von Computern und der Entwicklung der menschlichen Gesellschaft geben,
  3. stellen die Hauptmerkmale von Computern verschiedener Generationen vor.
  4. Entwicklung des kognitiven Interesses, Fähigkeit, zusätzliche Literatur zu nutzen

Unterrichtsart: neues Material lernen

Sicht: Unterrichtsvorlesung

Software und Lehrsoftware: PC, Präsentationsfolien mit Darstellung der wichtigsten Geräte, Porträts von Erfindern und Wissenschaftlern.

Unterrichtsplan:

  1. Zeit organisieren
  2. Aktualisierung neuen Wissens
  3. Hintergrund von Computern
  4. Generationen von Computern
  5. Die Zukunft der Computer
  6. Festigung neuen Wissens
  7. Zusammenfassung der Lektion
  8. Hausaufgaben

1. Organisatorischer Moment

Bühnenaufgabe: Bereiten Sie die Schüler auf die Arbeit im Unterricht vor. (Überprüfen Sie die Unterrichtsbereitschaft der Klasse, die Verfügbarkeit notwendiger Schulmaterialien und die Anwesenheit)

2. Aktualisierung neuen Wissens

Bühnenaufgabe: Vorbereitung der Schüler auf die aktive Aufnahme neuen Wissens, Gewährleistung der Motivation der Schüler und Akzeptanz der Ziele der pädagogischen und kognitiven Aktivität. Unterrichtsziele festlegen.

Guten Tag! Welche technischen Erfindungen haben Ihrer Meinung nach die Arbeitsweise der Menschen besonders verändert?

(Die Schüler äußern ihre Meinung zu diesem Thema, der Lehrer korrigiert sie gegebenenfalls)

- Sie haben Recht, tatsächlich ist das wichtigste technische Gerät, das die menschliche Arbeit beeinflusst hat, die Erfindung von Computern – elektronischen Rechenmaschinen. Heute erfahren wir in der Lektion, welche Computergeräte dem Erscheinen von Computern vorausgingen, wie sich die Computer selbst veränderten, wie der Computer entstand, als aus einer Maschine, die nur zum Zählen gedacht war, ein komplexes technisches Gerät wurde. Das Thema unserer Lektion: „Geschichte der Computertechnologie. Generationen von Computern. Der Zweck unserer Lektion : Machen Sie sich mit der Entwicklungsgeschichte der Computertechnologie vertraut, mit Geräten, die die Vorgänger von Computern und ihren Erfindern sind, und machen Sie sich mit den Hauptmerkmalen von Computern verschiedener Generationen vertraut.

Während des Unterrichts werden wir mit einer Multimedia-Präsentation arbeiten, die aus den 4 Abschnitten „Vorgeschichte der Computer“, „Generationen von Computern“, „Galerie der Wissenschaftler“ und „Computerwörterbuch“ besteht. Jeder Abschnitt hat einen Unterabschnitt „Testen Sie sich selbst“ – dies ist ein Test, bei dem Sie das Ergebnis sofort erfahren.

3. Hintergrund von Computern

Machen Sie die Schüler darauf aufmerksam, dass es sich bei einem Computer um eine elektronische Rechenmaschine handelt. Ein anderer Name „Computer“ oder „Computer“ kommt vom englischen Verb „compute“ – berechnen, sodass das Wort „Computer“ mit „Taschenrechner“ übersetzt werden kann. Das heißt, sowohl im Wort Computer als auch im Wort Computer sind Berechnungen die Hauptbedeutung. Obwohl Sie und ich genau wissen, dass moderne Computer es ermöglichen, nicht nur zu rechnen, sondern auch Texte, Zeichnungen, Videos und Ton zu erstellen und zu verarbeiten. Werfen wir einen Blick in die Geschichte...

(Gleichzeitig erstellen wir in einem Notizbuch die Tabelle „Vorgeschichte des Computers“)

„Vorgeschichte der Computer“

Der alte Mann beherrschte das Zählen vor dem Schreiben. Der Mann wählte seine Finger als ersten Assistenten beim Zählen. Die Anwesenheit von zehn Fingern bildete die Grundlage des dezimalen Zahlensystems. Verschiedene Länder sprechen und schreiben unterschiedliche Sprachen, zählen aber gleich. Im 5. Jahrhundert v. Chr. Die Griechen und Ägypter verwendeten zum Zählen den ABAC, ein dem russischen Abakus ähnliches Gerät.

Abakus ist ein griechisches Wort und wird mit Zählbrett übersetzt. Die Idee dahinter ist ein spezielles Rechenfeld, in dem Zählelemente nach bestimmten Regeln bewegt werden. Tatsächlich war der Abakus ursprünglich ein mit Staub oder Sand bedecktes Brett. Man könnte Linien darauf zeichnen und Kieselsteine ​​verschieben. Im antiken Griechenland wurde der Abakus hauptsächlich zur Durchführung von Geldtransaktionen verwendet. Auf der linken Seite wurden große Geldeinheiten gezählt, auf der rechten Seite Kleingeld. Gezählt wurde im Binär-Pentär-Zahlensystem. Auf einer solchen Tafel war es einfach, Kieselsteine ​​hinzuzufügen und zu entfernen, Kieselsteine ​​hinzuzufügen oder zu entfernen und sie von Kategorie zu Kategorie zu verschieben.

Als der Abakus im antiken Rom ankam, veränderte er sein Aussehen. Die Römer begannen, es aus Bronze, Elfenbein oder farbigem Glas herzustellen. Das Brett hatte zwei Reihen Schlitze, entlang derer die Knochen bewegt werden konnten. Der Abakus wurde zu einem echten Rechengerät, das die Darstellung gerader Brüche ermöglichte und viel praktischer war als der griechische. Die Römer nannten dieses Gerät calculare – „Kieselsteine“. Daher kommt das lateinische Verb calculare – „rechnen“, und daraus das russische Wort „Rechner“.

Nach dem Untergang des Römischen Reiches kam es zu einem Niedergang von Wissenschaft und Kultur und der Abakus wurde für einige Zeit geschlossen. Erst im 10. Jahrhundert wurde es wiederbelebt und verbreitete sich in ganz Europa. Abakus wurde von Kaufleuten, Geldwechslern und Handwerkern verwendet. Auch sechs Jahrhunderte später blieb der Abakus ein unverzichtbares Werkzeug zur Durchführung von Berechnungen.

Natürlich veränderte der Abakus über einen so langen Zeitraum sein Aussehen und nahm in den XLL-XLLL-Jahrhunderten die Form des sogenannten Zählens auf den Linien und zwischen ihnen an. Diese Form der Zählung blieb in einigen europäischen Ländern bis zum Ende des 16. Jahrhunderts bestehen. und wich erst dann endgültig den Berechnungen auf dem Papier.

In China ist der Abakus seit dem 4. Jahrhundert v. Chr. bekannt. Auf einem speziellen Brett wurden Zählstäbe ausgelegt. Nach und nach wurden sie durch mehrfarbige Chips ersetzt, und im 5. Jahrhundert erschien der chinesische Abakus – Suan-Pan. Es handelte sich um einen Rahmen mit zwei Reihen Samen, die auf Zweigen aufgereiht waren. An jedem Zweig befanden sich sieben davon. Von China kam Suan-Pan nach Japan. Dies geschah im 15. Jahrhundert und das Gerät wurde „Soroban“ genannt.

In Russland erschien der Abakus zur gleichen Zeit wie in Japan. Aber der russische Abakus wurde unabhängig erfunden, wie die folgenden Faktoren belegen. Erstens unterscheidet sich der russische Abakus stark vom chinesischen. Zweitens hat diese Erfindung ihre eigene Geschichte.

„Zählen mit Würfeln“ war in Russland üblich. Es kam der europäischen Linienzählung nahe, aber die Schriftgelehrten verwendeten Fruchtsamen anstelle von Zeichen. Im XVL erschien der Brettabakus, die erste Version des russischen Abakus. Solche Berichte werden heute im Historischen Museum in Moskau aufbewahrt.

Abakusse wurden in Russland fast 300 Jahre lang verwendet und erst durch billige Taschenrechner ersetzt.

Das weltweit erste automatische Gerät, das eine Addition durchführen konnte, entstand auf der Grundlage einer mechanischen Uhr und wurde 1623 von Wilhelm Schickard, einem Professor am Institut für Orientalische Sprachen einer der Universitäten in Deutschland, entwickelt. Aber einen unschätzbaren Beitrag zur Entwicklung von Geräten, die bei der Durchführung von Berechnungen helfen, haben sicherlich Blaise Pascal, Godfried Leibniz und Charles Babbage geleistet.

Im Jahr 1642 erfand und fertigte einer der größten Wissenschaftler der Menschheitsgeschichte, der französische Mathematiker, Physiker, Philosoph und Theologe Blaise Pascal, ein mechanisches Gerät zum Addieren und Subtrahieren von Zahlen – das ARITHMOMETER. ? Aus welchem ​​Material bestand Ihrer Meinung nach die erste Rechenmaschine der Geschichte? (Baum).

Die Hauptidee für das Design der zukünftigen Maschine war die automatische Entladungsübertragung. „Jedes Rad ... einer bestimmten Kategorie, das sich um zehn arithmetische Ziffern bewegt, bewegt das nächste nur um eine Ziffer“ – diese Erfindungsformel bestätigte Blaise Pascals Priorität bei der Erfindung und sicherte ihm das Recht, Autos zu produzieren und zu verkaufen.

Pascals Maschine fügte Zahlen auf speziellen Scheiben – Rädern – hinzu. Die Dezimalstellen einer fünfstelligen Zahl wurden durch Drehen der Scheiben angegeben, auf denen die digitalen Unterteilungen markiert waren. Das Ergebnis wurde in den Fenstern abgelesen. Die Scheiben hatten einen verlängerten Zahn, um den Übergang zur nächsten Reihe zu ermöglichen.

Die Anfangszahlen wurden durch Drehen der Ziffernräder eingestellt, durch Drehen des Griffs wurden verschiedene Zahnräder und Rollen in Bewegung gesetzt, und als Ergebnis zeigten spezielle Räder mit Zahlen das Ergebnis der Addition oder Subtraktion an.

Pascal war eines der größten Genies der Menschheit. Er war Mathematiker, Physiker, Mechaniker, Erfinder und Schriftsteller. Theoreme der Mathematik und Gesetze der Physik tragen seinen Namen. In der Physik gibt es eine Maßeinheit für den Druck namens Pascal. In der Informatik trägt eine der beliebtesten Programmiersprachen seinen Namen.

Im Jahr 1673 erfand und fertigte der deutsche Mathematiker und Philosoph Gottfried Wilhelm Leibniz eine Addiermaschine, die nicht nur Zahlen addieren und subtrahieren, sondern auch multiplizieren und dividieren konnte. Die Knappheit und Primitivität der ersten Computer hinderten Pascal und Leibniz nicht daran, eine Reihe interessanter Ideen über die Rolle der Computertechnologie in der Zukunft zu äußern. Leibniz schrieb über Maschinen, die nicht nur mit Zahlen, sondern auch mit Wörtern, Konzepten und Formeln arbeiten und logische Operationen ausführen könnten. Diese Idee erschien den meisten Zeitgenossen von Leibniz absurd. Im 18. Jahrhundert wurden Leibniz‘ Ansichten vom großen englischen Satiriker J. Swift, dem Autor des berühmten Romans „Gullivers Reisen“, lächerlich gemacht.

Erst im 20. Jahrhundert wurde die Bedeutung der Ideen von Pascal und Leibniz deutlich.

Neben Computergeräten wurden auch Mechanismen für den AUTOMATISCHEN BETRIEB NACH EINEM FESTGELEGTEN PROGRAMM (Jukeboxen, Schlaguhren, Jacquard-Webstühle) entwickelt.

Zu Beginn des 19. Jahrhunderts entwickelte der englische Mathematiker Charles Babbage, der Tabellen für die Navigation erstellte, ein PROJEKT einer „analytischen“ Rechenmaschine, die auf dem PROGRAM CONTROL PRINCIPLE (PCU) basierte. Babbages innovativer Gedanke wurde von seiner Schülerin Ada Lovelace, der Tochter des Dichters George Byron – der ersten Programmiererin der Welt – aufgegriffen und weiterentwickelt. Die praktische Umsetzung von Babbages Projekt war jedoch aufgrund der unzureichenden Entwicklung von Industrie und Technologie unmöglich.

Die Hauptelemente der Babbage-Maschine, die einem modernen Computer innewohnen:

  1. Ein Lager ist ein Gerät, in dem Anfangszahlen und Zwischenergebnisse gespeichert werden. In einem modernen Computer ist dies der Speicher.
  2. Factory ist ein Rechengerät, in dem Operationen mit Zahlen aus dem Lager ausgeführt werden. In einem modernen Computer ist dies der Prozessor.
  3. Quelldaten-Eingabeblöcke – Eingabegerät.
  4. Druckergebnisse – Ausgabegerät.

Die Architektur der Maschine entspricht praktisch der Architektur moderner Computer, und die Befehle, die die Analyse-Engine ausführte, umfassten im Wesentlichen alle Prozessorbefehle.

Eine interessante historische Tatsache ist, dass das erste Programm für die Analytical Engine von Ada Augusta Lovelace, der Tochter des großen englischen Dichters George Byron, geschrieben wurde. Es war Babbage, der sie auf die Idee brachte, eine Rechenmaschine zu entwickeln.

Die Idee, mechanische Geräte mithilfe einer Lochkarte zu programmieren, wurde erstmals 1804 in einem Webstuhl umgesetzt. Sie wurden zuerst von Webstuhldesignern verwendet. Dies gelang dem Londoner Weber Joseph Marie Jacquard. Im Jahr 1801 entwickelte er einen automatischen Webstuhl, der durch Lochkarten gesteuert wurde.

Der Faden hob oder senkte sich mit jedem Schiffchenhub, je nachdem, ob ein Loch vorhanden war oder nicht. Der Querfaden könnte je nach Programm auf der Lochkarte jede Längsseite auf der einen oder anderen Seite umlaufen und so ein kompliziertes Muster aus ineinander verschlungenen Fäden erzeugen. Diese Webart wird „Jacquard“ genannt und gilt als eine der komplexesten und kompliziertesten Webarten. Dieser programmgesteuerte Webstuhl war das erste industrielle Massengerät und gilt als eine der fortschrittlichsten Maschinen, die jemals von Menschen geschaffen wurden.

Die Idee, ein Programm auf einer Lochkarte aufzuzeichnen, kam auch der ersten Programmiererin Ada Augusta Lovelace. Sie war es, die die Verwendung perforierter Karten in Babbages Analytical Engine vorschlug. In einem ihrer Briefe schrieb sie insbesondere: „Die Analytical Engine webt algebraische Muster auf die gleiche Weise, wie ein Webstuhl Farben und Blätter reproduziert.“

Auch Herman Hollerith nutzte Lochkarten in seinem Gerät, um Informationen aufzuzeichnen und zu verarbeiten. Lochkarten wurden auch in Computern der ersten Generation verwendet.

Bis in die 40er Jahre des 20. Jahrhunderts wurde die Computertechnologie durch Additionsmaschinen repräsentiert, die von mechanisch zu elektrisch wurden, wobei elektromagnetische Relais mehrere Sekunden damit verbrachten, Zahlen zu multiplizieren, die genau nach den gleichen Prinzipien funktionierten wie die Additionsmaschinen von Pascal und Leibniz. Zudem waren sie sehr unzuverlässig und gingen oft kaputt. Es ist interessant, dass die Ursache für den Ausfall einer elektrischen Addiermaschine einst eine Motte war, die in einem Relais steckte, auf Englisch „Motte, Käfer“ – Käfer, daher der Begriff „Bug“ als Fehlfunktion in einem Computer.

Hermann Hollerith geboren am 29. Februar 1860 in der amerikanischen Stadt Buffalo in einer Familie deutscher Auswanderer. Herman fand leicht Zugang zu Mathematik und Naturwissenschaften und trat im Alter von 15 Jahren in die School of Mines der Columbia University ein. Ein Professor derselben Universität machte auf den fähigen jungen Mann aufmerksam und lud ihn nach seinem Schulabschluss in das nationale Zensusbüro ein, das er leitete. Alle zehn Jahre wurde eine Volkszählung durchgeführt. Die Bevölkerung wuchs ständig und ihre Zahl in den Vereinigten Staaten betrug zu diesem Zeitpunkt etwa 50 Millionen Menschen. Es war nahezu unmöglich, für jede Person manuell eine Karte auszufüllen und anschließend die Ergebnisse zu berechnen und zu verarbeiten. Dieser Prozess zog sich über mehrere Jahre hin, fast bis zur nächsten Volkszählung. Es galt, einen Ausweg aus dieser Situation zu finden. Die Idee, diesen Prozess zu mechanisieren, kam Herman Hollerith von Dr. John Billings, der die Abteilung für konsolidierte Daten leitete. Er schlug vor, Lochkarten zur Aufzeichnung von Informationen zu verwenden. Hollerith gab seinem Auto den Namen Tabulator und in 1887 Jahr wurde es in Baltimore getestet. Die Ergebnisse waren positiv und das Experiment wurde in St. Louis wiederholt. Der Zeitgewinn betrug fast das Zehnfache. Die US-Regierung schloss sofort einen Vertrag mit Hollerith über die Lieferung von Tabulatoren ab, und bereits 1890 wurde die Volkszählung maschinell durchgeführt. Die Verarbeitung der Ergebnisse dauerte weniger als zwei Jahre und sparte 5 Millionen US-Dollar. Holleriths System ermöglichte nicht nur eine hohe Geschwindigkeit, sondern ermöglichte auch den Vergleich statistischer Daten zu verschiedenen Parametern. Hollerith entwickelte einen praktischen Schlüsselstanzer, der es ermöglicht, pro Minute etwa 100 Löcher gleichzeitig in mehrere Karten zu stanzen, und automatisierte die Vorgänge zum Zuführen und Sortieren von Lochkarten. Die Sortierung erfolgte durch ein Gerät in Form einer Reihe von Kisten mit Deckel. Die Lochkarten bewegten sich über eine Art Förderband. Auf der einen Seite der Karte befanden sich Lesestifte auf Federn, auf der anderen Seite befand sich ein Quecksilberreservoir. Als der Stift in das Loch der Lochkarte fiel, schloss er dank des Quecksilbers auf der anderen Seite einen Stromkreis. Der Deckel der entsprechenden Schachtel wurde geöffnet und eine Lochkarte fiel hinein. Der Tabulator wurde in mehreren Ländern für Volkszählungen verwendet.

Im Jahr 1896 gründete Herm Hollerith die Tabulated Machine Company (TMC) und seine Maschinen kamen überall zum Einsatz – sowohl in großen Industriebetrieben als auch in einfachen Betrieben. Und im Jahr 1900 wurde der Tabulator für die Volkszählung verwendet. benennt das Unternehmen in IBM (International Business Machines) um.

4. Generationen von Computern (Computer)

(Gleichzeitig machen wir Notizen in Notizbüchern und der Tabelle „Generationen von Computern (Computern)“)

COMPUTER-GENERATIONEN
Zeitraum Elementbasis Schnelle Aktion (Ops/Sek.) Informationsträger Programme Anwendung Beispiele für Computer
ICH
II
III
IV
V

ICHComputergeneration: In den 30er Jahren des 20. Jahrhunderts kam es zu einem Durchbruch und einer radikalen Revolution in der Entwicklung der Physik. In Computern verwendete man keine Räder, Rollen und Relais mehr, sondern Vakuumröhren. Der Übergang von elektromechanischen zu elektronischen Elementen erhöhte die Geschwindigkeit von Maschinen sofort um das Hundertfache. Der erste funktionsfähige Computer wurde 1945 in den USA an der University of Pennsylvania von den Wissenschaftlern Eckert und Mauchly gebaut und erhielt den Namen ENIAC. Diese Maschine wurde im Auftrag des US-Verteidigungsministeriums für Luftverteidigungssysteme und zur Automatisierung der Steuerung gebaut. Um die Flugbahn und Geschwindigkeit eines Projektils beim Auftreffen auf ein Luftziel korrekt zu berechnen, musste ein System aus 6 Differentialgleichungen gelöst werden. Der erste Computer sollte dieses Problem lösen. Der erste Computer nahm zwei Stockwerke eines Gebäudes ein, wog 30 Tonnen und bestand aus Zehntausenden elektronischen Röhren, die durch Drähte verbunden waren, deren Gesamtlänge 10.000 km betrug. Als der ENIAC-Computer in Betrieb war, wurde der Strom in der Stadt abgeschaltet, und dieser Computer verbrauchte so viel Strom, dass die elektronischen Röhren schnell überhitzten und ausfielen. Eine ganze Gruppe von Studenten tat nichts anderes, als ständig durchgebrannte Lampen zu suchen und auszutauschen.

In der UdSSR war Sergei Alexejewitsch Lebedew der Begründer der Computertechnologie, der 1951 in Kiew die MESM (kleine Rechenmaschine) und 1952 in Moskau die BESM (Hochgeschwindigkeits-ESM) entwickelte.

IIGeneration: 1948 erfand der amerikanische Wissenschaftler Walter Brighten den TRANSISTOR, ein Halbleiterbauelement, das Radioröhren ersetzte. Der Transistor war viel kleiner als eine Radioröhre, war zuverlässiger und verbrauchte viel weniger Strom; er allein ersetzte 40 Vakuumröhren! Computer sind kleiner und viel billiger geworden, ihre Geschwindigkeit hat mehrere hundert Operationen pro Sekunde erreicht. Jetzt hatten Computer die Größe eines Kühlschranks und konnten von wissenschaftlichen und technischen Instituten erworben und genutzt werden. Damals hielt die UdSSR mit der Zeit Schritt und produzierte Weltklasse-Computer BESM-6.

IIIGeneration: Die zweite Hälfte des 20. Jahrhunderts ist durch die rasante Entwicklung von Wissenschaft und Technologie, insbesondere der Physik der Halbleiter, gekennzeichnet, und seit 1964 begann man, Transistoren auf Mikroschaltungen auf der Oberfläche von Kristallen zu platzieren. Dadurch konnte die millionste Leistungsgrenze überwunden werden.

IVGeneration: Seit 1980 haben Wissenschaftler gelernt, mehrere integrierte Schaltkreise auf einem Chip zu platzieren; die Entwicklung der Mikroelektronik führte zur Entwicklung von Mikroprozessoren. Der IC-Kristall ist kleiner und dünner als eine Kontaktlinse. Die Leistung moderner Computer beträgt Hunderte Millionen Operationen pro Sekunde.

1977 erschien der erste PC (Personal Computer) von Apple Macintosh. Seit 1981 ist IBM (International Business Machine) führend in der PC-Produktion; dieses Unternehmen ist seit dem 19. Jahrhundert auf dem US-Markt tätig und produziert verschiedene Geräte für Büros – Abakus, Stiftaddiermaschinen usw. und hat sich als zuverlässiges Unternehmen etabliert, dem die meisten Geschäftsleute in den Vereinigten Staaten vertrauen. Aber das ist nicht der einzige Grund, warum IBM-PCs weitaus beliebter waren als Apple-Macintosh-PCs. Apple Macintosh-PCs waren eine „Black Box“ für den Benutzer – es war unmöglich, den PC zu zerlegen, aufzurüsten oder neue Geräte an den PC anzuschließen, während IBM-PCs für den Benutzer offen waren und es somit ermöglichten, einen PC wie einen zusammenzubauen Kinderbaukasten, daher entschieden sich die meisten Benutzer für IBM-PCs. Wenn wir das Wort Computer hören, denken wir zwar an einen PC, aber es gibt Aufgaben, die selbst moderne PCs nicht lösen können und die nur von Supercomputern bewältigt werden können, deren Geschwindigkeit Milliarden von Operationen pro Sekunde beträgt.

Die wissenschaftliche Schule von Lebedev konkurrierte in ihren Ergebnissen erfolgreich mit dem führenden US-Unternehmen IBM. Unter den Wissenschaftlern der Welt, den Zeitgenossen Lebedews, gibt es keinen Menschen, der wie er über ein so starkes kreatives Potenzial verfügen würde, um mit seiner wissenschaftlichen Tätigkeit den Zeitraum von der Entwicklung der ersten Röhrencomputer bis zum Ultrahochgeschwindigkeits-Supercomputer abzudecken. Als der amerikanische Wissenschaftler Norbert Wiener, der als „erster Cyber-Prophet“ bezeichnet wird, 1960 in die UdSSR kam, bemerkte er: „Sie liegen bei der Ausrüstung um einiges hinter uns, aber bei der THEORIE der Automatisierung weit vor uns.“ Leider wurde die Wissenschaft der Kybernetik in den 60er Jahren als „bürgerliche Pseudowissenschaft“ verfolgt; Wissenschaftler der Kybernetik wurden inhaftiert, weshalb die sowjetische Elektronik merklich hinter der ausländischen zurückblieb. Obwohl es unmöglich wurde, neue Computer zu entwickeln, konnte niemand die Wissenschaftler vom Nachdenken abhalten. Daher sind unsere russischen Wissenschaftler dem weltweiten wissenschaftlichen Denken auf dem Gebiet der Automatisierungstheorie immer noch voraus.

Zur Entwicklung von Computerprogrammen wurden verschiedene Programmiersprachen (Algorithmensprachen) erstellt. FORTRAN FORTRAN – FORmula TRANSlated – die erste Sprache, erstellt 1956 von J. Backus. Im Jahr 1961 erschien BASIC BASIC (Beginners All-Purpose Symbolic Instartion Code) – T. Kurtz, J. Kemeny. 1971 schuf der Professor an der Universität Zürich Nicholas Wirth die Pascal-Sprache Pascal, die er nach dem Wissenschaftler Blaise Pascal benannte. Es wurden auch andere Sprachen erstellt: Ada, Algol, Cobol, C, Prolog, Fred, Logo, Lisp usw. Die beliebteste Programmiersprache ist jedoch immer noch Pascal. Viele spätere Sprachen haben die grundlegenden Befehle und Prinzipien von Pascal übernommen Die Programmkonstruktion, zum Beispiel die Sprachen C, C+ und das Delphi-Programmiersystem, sogar BASIC, haben ihre Struktur und Vielseitigkeit, nachdem sie sich verändert haben, von Pascal übernommen. In der 11. Klasse lernen wir die Sprache Pascal und lernen, Programme zur Lösung von Problemen mit Formeln, zur Textverarbeitung zu erstellen, zu zeichnen und bewegte Zeichnungen zu erstellen.

Supercomputer

5. Die Zukunft der Informatik

  • Vorteile künstlicher Intelligenz (KI):
  • Molekulare Computer
  • Biocomputer
  • Optische Computer
  • Quantencomputer

6. Festigung neuen Wissens

Es ist möglich, neues Material mithilfe eines Tests in einer Multimedia-Präsentation für den Unterricht zu festigen: Abschnitt „Testen Sie sich selbst“ in jedem Teil der Präsentation: „Hintergrund von Computern“, „Generationen von Computern“, „Galerie von Wissenschaftlern“.

Die Prüfung von Kenntnissen zu diesem Thema ist mit den Tests „Geschichte der Informatik“ möglich ( Anhang 1) in 4 Versionen und ein Test über Wissenschaftler „Informatik in Personen“ ( Anlage 2)

7. Zusammenfassung der Lektion

Überprüfung abgeschlossener Tabellen ( Anhang 3)

8. Hausaufgaben

  • Vorlesung im Notizbuch zur Präsentation, Tabellen „Vorgeschichte der Computer“, „Generationen der Computer“
  • Bereiten Sie eine Nachricht über die 5. Computergeneration (die Zukunft der Computer) vor.

Der von ihnen entwickelte Computer arbeitete tausendmal schneller als der Mark 1. Es stellte sich jedoch heraus, dass dieser Computer die meiste Zeit im Leerlauf war, da es zum Einstellen der Berechnungsmethode (Programm) in diesem Computer erforderlich war, die Kabel mehrere Stunden oder sogar mehrere Tage lang in der erforderlichen Weise anzuschließen. Und die Berechnung selbst könnte dann nur wenige Minuten oder sogar Sekunden dauern.

Um den Prozess der Programmeinstellung zu vereinfachen und zu beschleunigen, begannen Mauchly und Eckert mit der Entwicklung eines neuen Computers, der das Programm in seinem Speicher speichern konnte. Im Jahr 1945 wurde der berühmte Mathematiker John von Neumann mit der Arbeit beauftragt und verfasste einen Bericht über diesen Computer. Der Bericht wurde an viele Wissenschaftler verschickt und erlangte große Bekanntheit, weil von Neumann darin die allgemeinen Funktionsprinzipien von Computern, also universellen Rechengeräten, klar und einfach formulierte. Und bis heute wird die überwiegende Mehrheit der Computer nach den Prinzipien hergestellt, die John von Neumann 1945 in seinem Bericht darlegte. Der erste Computer, der von Neumanns Prinzipien verkörperte, wurde 1949 vom englischen Forscher Maurice Wilkes gebaut.

Die Entwicklung der ersten elektronischen Serienmaschine UNIVAC (Universal Automatic Computer) begann um 1947 durch Eckert und Mauchli, die im Dezember desselben Jahres die Firma ECKERT-MAUCHLI gründeten. Das erste Modell der Maschine (UNIVAC-1) wurde für das US Census Bureau gebaut und im Frühjahr 1951 in Betrieb genommen. Auf Basis der ENIAC- und EDVAC-Rechner entstand der synchrone, sequentielle Rechner UNIVAC-1. Es arbeitete mit einer Taktfrequenz von 2,25 MHz und enthielt etwa 5000 Vakuumröhren. Der interne Speicher mit einer Kapazität von 1000 12-Bit-Dezimalzahlen wurde auf 100 Quecksilberverzögerungsleitungen implementiert.

Schon bald nach der Inbetriebnahme der UNIVAC-1-Maschine kamen deren Entwickler auf die Idee der automatischen Programmierung. Es ging darum sicherzustellen, dass die Maschine selbst die zur Lösung eines bestimmten Problems erforderliche Befehlsfolge vorbereiten konnte.

Ein stark einschränkender Faktor in der Arbeit von Computerdesignern in den frühen 1950er Jahren war der Mangel an Hochgeschwindigkeitsspeicher. Laut einem der Pioniere der Informatik, D. Eckert, „wird die Architektur einer Maschine durch den Speicher bestimmt.“ Die Forscher konzentrierten ihre Bemühungen auf die Gedächtniseigenschaften von Ferritringen, die auf Drahtmatrizen aufgereiht waren.

Im Jahr 1951 veröffentlichte J. Forrester einen Artikel über die Verwendung von Magnetkernen zur Speicherung digitaler Informationen. Die Whirlwind-1-Maschine war die erste Maschine, die einen Magnetkernspeicher verwendete. Es bestand aus zwei Würfeln von 32 x 32 x 17 mit Kernen, die die Speicherung von 2048 Wörtern für 16-Bit-Binärzahlen mit einem Paritätsbit ermöglichten.

Bald beteiligte sich IBM an der Entwicklung elektronischer Computer. 1952 brachte das Unternehmen seinen ersten industriellen elektronischen Computer auf den Markt, den IBM 701, einen synchronen Parallelcomputer mit 4.000 Vakuumröhren und 12.000 Germaniumdioden. Eine verbesserte Version der IBM 704-Maschine zeichnete sich durch hohe Geschwindigkeit aus, sie verwendete Indexregister und stellte Daten in Gleitkommaform dar.

IBM 704
Nach dem Computer IBM 704 erschien der IBM 709, der architektonisch den Maschinen der zweiten und dritten Generation nahe kam. In dieser Maschine wurde zum ersten Mal die indirekte Adressierung verwendet und E/A-Kanäle erschienen zum ersten Mal.

1956 entwickelte IBM schwebende Magnetköpfe auf einem Luftkissen. Ihre Erfindung ermöglichte die Schaffung eines neuen Speichertyps – Plattenspeicher (SD), dessen Bedeutung in den folgenden Jahrzehnten der Entwicklung der Computertechnologie voll erkannt wurde. Die ersten Plattenspeichergeräte erschienen in IBM 305- und RAMAC-Maschinen. Letzterer verfügte über ein Paket bestehend aus 50 magnetisch beschichteten Metallscheiben, die mit einer Geschwindigkeit von 12.000 U/min rotierten. Auf der Oberfläche der Diskette befanden sich 100 Spuren zur Aufzeichnung von Daten mit jeweils 10.000 Zeichen.

Nach dem ersten Seriencomputer UNIVAC-1 brachte Remington-Rand 1952 den Computer UNIVAC-1103 auf den Markt, der 50-mal schneller arbeitete. Später wurden Software-Interrupts erstmals im Computer UNIVAC-1103 verwendet.

Die Mitarbeiter von Rernington-Rand verwendeten eine algebraische Form des Schreibens von Algorithmen namens „Short Code“ (der erste Interpreter, der 1949 von John Mauchly entwickelt wurde). Darüber hinaus ist die Offizierin der US-Marine und Leiterin des Programmierteams sowie die damalige Kapitänin (später die einzige Admiralin der Marine) Grace Hopper zu erwähnen, die das erste Compilerprogramm entwickelte. Der Begriff „Compiler“ wurde übrigens erstmals 1951 von G. Hopper eingeführt. Dieses Kompilierungsprogramm übersetzte das gesamte Programm in eine Maschinensprache, geschrieben in einer für die Verarbeitung geeigneten algebraischen Form. G. Hopper ist auch der Autor des Begriffs „Bug“, wie er auf Computer angewendet wird. Einmal flog ein Käfer (auf Englisch - Käfer) durch ein offenes Fenster in das Labor, der auf den Kontakten saß und diese kurzschloss, was zu einer schwerwiegenden Fehlfunktion der Maschine führte. Der verbrannte Käfer wurde in das Verwaltungsprotokoll geklebt, wo verschiedene Störungen verzeichnet waren. So wurde der erste Fehler in Computern dokumentiert.

Die ersten Schritte auf dem Gebiet der Programmierautomatisierung unternahm IBM mit der Entwicklung des „Fast Coding System“ für die IBM 701-Maschine im Jahr 1953. In der UdSSR schlug A. A. Lyapunov eine der ersten Programmiersprachen vor. Im Jahr 1957 schloss eine Gruppe unter der Leitung von D. Backus die Arbeit an der ersten höheren Programmiersprache namens FORTRAN ab, die später populär wurde. Die erstmals auf dem IBM 704-Computer implementierte Sprache trug zur Erweiterung des Computerumfangs bei.

Alexey Andreevich Lyapunov
In Großbritannien stellte M. Wilkes im Juli 1951 auf einer Konferenz an der Universität Manchester einen Bericht „Die beste Methode zum Entwurf einer automatischen Maschine“ vor, der zu einer bahnbrechenden Arbeit über die Grundlagen der Mikroprogrammierung wurde. Die von ihm vorgeschlagene Methode zum Entwurf von Steuergeräten hat breite Anwendung gefunden.

M. Wilkes verwirklichte seine Idee der Mikroprogrammierung 1957, als er die EDSAC-2-Maschine entwickelte. Im Jahr 1951 schrieb M. Wilkes zusammen mit D. Wheeler und S. Gill das erste Programmierlehrbuch „Composing Programs for Electronic Computing Machines“.

1956 veröffentlichte Ferranti den Pegasus-Computer, der erstmals das Konzept der General Purpose Registers (GPR) umsetzte. Mit dem Aufkommen von RON wurde die Unterscheidung zwischen Indexregistern und Akkumulatoren aufgehoben und dem Programmierer standen nicht mehr ein, sondern mehrere Akkumulatorenregister zur Verfügung.

Das Aufkommen von Personalcomputern

Mikroprozessoren wurden erstmals in verschiedenen Spezialgeräten eingesetzt, beispielsweise in Taschenrechnern. Doch 1974 kündigten mehrere Unternehmen die Entwicklung eines Personalcomputers auf Basis des Intel-8008-Mikroprozessors an, also eines Geräts, das die gleichen Funktionen wie ein großer Computer ausführt, aber für einen Benutzer konzipiert ist. Anfang 1975 erschien der erste kommerziell vertriebene Personalcomputer, Altair-8800, basierend auf dem Intel-8080-Mikroprozessor. Dieser Computer wurde für etwa 500 US-Dollar verkauft. Und obwohl seine Fähigkeiten sehr begrenzt waren (der Arbeitsspeicher betrug nur 256 Byte, es gab keine Tastatur und keinen Bildschirm), wurde sein Erscheinen mit großer Begeisterung aufgenommen: In den ersten Monaten wurden mehrere tausend Exemplare der Maschine verkauft. Käufer lieferten diesen Computer mit zusätzlichen Geräten: einem Monitor zur Anzeige von Informationen, einer Tastatur, Speichererweiterungseinheiten usw. Bald wurden diese Geräte von anderen Unternehmen hergestellt. Ende 1975 entwickelten Paul Allen und Bill Gates (zukünftige Gründer von Microsoft) einen Basic-Sprachinterpreter für den Altair-Computer, der es Benutzern ermöglichte, problemlos mit dem Computer zu kommunizieren und problemlos Programme dafür zu schreiben. Dies trug auch zur steigenden Beliebtheit von Personalcomputern bei.

Der Erfolg des Altair-8800 zwang viele Unternehmen, auch mit der Produktion von Personalcomputern zu beginnen. Man begann, Personalcomputer voll ausgestattet mit Tastatur und Monitor zu verkaufen; die Nachfrage danach belief sich auf Zehntausende und dann Hunderttausende Einheiten pro Jahr. Es erschienen mehrere Zeitschriften zum Thema Personalcomputer. Das Umsatzwachstum wurde durch zahlreiche nützliche Programme von praktischer Bedeutung erheblich erleichtert. Es erschienen auch kommerziell vertriebene Programme, beispielsweise das Textbearbeitungsprogramm WordStar und der Tabellenkalkulationsprozessor VisiCalc (1978 bzw. 1979). Diese und viele andere Programme machten die Anschaffung von Personalcomputern für Unternehmen sehr rentabel: Mit ihrer Hilfe wurde es möglich, Buchhaltungsberechnungen durchzuführen, Dokumente zu erstellen usw. Der Einsatz großer Computer für diese Zwecke war zu teuer.

Ende der 1970er Jahre führte die Verbreitung von Personalcomputern sogar zu einem leichten Rückgang der Nachfrage nach Großrechnern und Minicomputern (Minicomputern). Für IBM, das führende Unternehmen in der Herstellung großer Computer, wurde dies zu einem ernsten Problem, und 1979 beschloss IBM, sich auf dem Markt für Personalcomputer zu versuchen. Die Unternehmensleitung unterschätzte jedoch die zukünftige Bedeutung dieses Marktes und betrachtete die Entwicklung eines Personalcomputers nur als ein kleines Experiment – ​​so etwas wie eine von Dutzenden Arbeiten, die das Unternehmen zur Entwicklung neuer Geräte durchführte. Um nicht zu viel Geld für dieses Experiment auszugeben, hat die Unternehmensleitung der für dieses Projekt verantwortlichen Einheit im Unternehmen beispiellose Freiheiten eingeräumt. Insbesondere durfte er einen Personal Computer nicht von Grund auf entwerfen, sondern Blöcke anderer Unternehmen verwenden. Und diese Einheit nutzte die gegebene Chance voll aus.

Als Hauptmikroprozessor des Computers wurde der damals neueste 16-Bit-Mikroprozessor Intel-8088 ausgewählt. Durch seinen Einsatz konnte die Leistungsfähigkeit des Computers deutlich gesteigert werden, da der neue Mikroprozessor das Arbeiten mit 1 Megabyte Speicher ermöglichte und alle damals verfügbaren Computer auf 64 Kilobyte begrenzt waren.

Im August 1981 wurde ein neuer Computer namens IBM PC offiziell der Öffentlichkeit vorgestellt und erfreute sich bald darauf großer Beliebtheit bei den Benutzern. Ein paar Jahre später nahm der IBM-PC eine führende Position auf dem Markt ein und verdrängte 8-Bit-Computermodelle.

IBM-PC
Das Geheimnis der Popularität des IBM-PCs liegt darin, dass IBM seinen Computer nicht zu einem einzigen einteiligen Gerät gemacht und sein Design nicht durch Patente geschützt hat. Stattdessen baute sie den Computer aus unabhängig hergestellten Teilen zusammen und hielt die Spezifikationen dieser Teile und die Art und Weise ihrer Verbindung nicht geheim. Im Gegensatz dazu standen die Designprinzipien des IBM-PCs jedem zur Verfügung. Dieser als Prinzip der offenen Architektur bezeichnete Ansatz machte den IBM-PC zu einem überwältigenden Erfolg, obwohl er IBM daran hinderte, die Vorteile seines Erfolgs zu teilen. Hier erfahren Sie, wie die Offenheit der IBM PC-Architektur die Entwicklung von Personalcomputern beeinflusste.

Das Versprechen und die Popularität des IBM-PCs machten die Produktion verschiedener Komponenten und Zusatzgeräte für den IBM-PC sehr attraktiv. Der Wettbewerb zwischen den Herstellern hat zu günstigeren Komponenten und Geräten geführt. Sehr bald gaben sich viele Unternehmen nicht mehr mit der Rolle der Hersteller von Komponenten für den IBM PC zufrieden und begannen, eigene Computer zusammenzustellen, die mit dem IBM PC kompatibel waren. Da diese Unternehmen nicht die enormen Kosten von IBM für Forschung und Aufrechterhaltung der Struktur eines riesigen Unternehmens tragen mussten, konnten sie ihre Computer viel billiger (manchmal 2-3-mal) als ähnliche IBM-Computer verkaufen.

Mit dem IBM-PC kompatible Computer wurden zunächst verächtlich als „Klone“ bezeichnet, doch dieser Spitzname setzte sich nicht durch, da viele Hersteller von IBM-PC-kompatiblen Computern begannen, technische Fortschritte schneller als IBM selbst umzusetzen. Benutzer konnten ihre Computer selbstständig aufrüsten und mit zusätzlichen Geräten von Hunderten verschiedener Hersteller ausstatten.

Personalcomputer der Zukunft

Die Basis zukünftiger Computer werden nicht Siliziumtransistoren sein, bei denen Informationen durch Elektronen übertragen werden, sondern optische Systeme. Der Informationsträger werden Photonen sein, da sie leichter und schneller als Elektronen sind. Dadurch wird der Computer günstiger und kompakter. Aber das Wichtigste ist, dass optoelektronisches Rechnen viel schneller ist als das, was heute verwendet wird, sodass der Computer viel leistungsfähiger sein wird.

Der PC wird klein sein und die Leistung moderner Supercomputer haben. Der PC wird zu einem Informationsspeicher, der alle Aspekte unseres täglichen Lebens abdeckt, und ist nicht an elektrische Netzwerke gebunden. Dieser PC wird dank eines biometrischen Scanners, der seinen Besitzer anhand des Fingerabdrucks erkennt, vor Dieben geschützt.

Die Kommunikation mit dem Computer erfolgt hauptsächlich über Sprache. Der Desktop-Computer verwandelt sich in einen „Schokoriegel“, oder besser gesagt, in einen riesigen Computerbildschirm – ein interaktives photonisches Display. Eine Tastatur ist nicht erforderlich, da alle Aktionen per Fingerdruck ausgeführt werden können. Wer aber eine Tastatur bevorzugt, kann jederzeit eine virtuelle Tastatur auf dem Bildschirm erstellen und entfernen, wenn sie nicht mehr benötigt wird.

Der Computer wird zum Betriebssystem des Hauses, und das Haus beginnt, auf die Bedürfnisse des Eigentümers zu reagieren, seine Vorlieben zu kennen (Kaffee um 7 Uhr kochen, seine Lieblingsmusik abspielen, die gewünschte Fernsehsendung aufzeichnen, die Temperatur anpassen usw.). Luftfeuchtigkeit usw.)

Die Bildschirmgröße wird bei den Computern der Zukunft keine Rolle mehr spielen. Es kann so groß wie Ihr Desktop oder klein sein. Größere Versionen von Computerbildschirmen werden auf photonisch angeregten Flüssigkristallen basieren, die einen deutlich geringeren Stromverbrauch haben als heutige LCD-Monitore. Die Farben werden lebendig und die Bilder präzise sein (Plasmaanzeigen möglich). Tatsächlich wird das heutige Konzept der „Lösung“ stark verkümmern.

Computergeräte und Geräte von der Antike bis zur Gegenwart

Die Hauptstadien in der Entwicklung der Computertechnologie sind: manuell – bis zum 17. Jahrhundert, mechanisch – ab Mitte des 17. Jahrhunderts, elektromechanisch – ab den 90er Jahren des 19. Jahrhunderts, elektronisch – ab den 40er Jahren des 20. Jahrhunderts.

Die manuelle Periode begann mit dem Beginn der menschlichen Zivilisation.

Bei jeder Tätigkeit hat der Mensch seit jeher verschiedenste Mittel, Geräte und Werkzeuge erfunden und geschaffen, um seine Fähigkeiten zu erweitern und die Arbeit zu erleichtern.

Mit der Entwicklung des Handels entstand die Notwendigkeit eines Kontos. Vor vielen Jahrhunderten begannen die Menschen, zur Durchführung verschiedener Berechnungen zunächst ihre eigenen Finger, dann Kieselsteine, Stöcke, Knoten usw. zu verwenden. Aber mit der Zeit wurden die Aufgaben, vor denen er stand, immer komplizierter und es wurde notwendig, Wege zu finden und Geräte zu erfinden, die ihm bei der Lösung dieser Probleme helfen könnten.

Eines der ersten Geräte (5. Jahrhundert v. Chr.), das Berechnungen erleichterte, war ein spezielles Brett, später Abakus (von griechisch „Zählbrett“) genannt. Berechnungen dazu wurden durch Bewegen von Knochen oder Kieselsteinen in den Aussparungen von Brettern aus Bronze, Stein, Elfenbein usw. durchgeführt. In Griechenland existierte der Abakus bereits im 5. Jahrhundert v. Chr. e. Eine Rille entsprach einer Einerstelle, die andere einer Zehnerstelle usw. Wenn beim Zählen mehr als 10 Kieselsteine ​​in einer Rille gesammelt wurden, wurden diese entfernt und ein Kieselstein zur nächsten Ziffer hinzugefügt. Die Römer verbesserten den Abakus und gingen von Rillen und Kieselsteinen zu Marmorbrettern mit gemeißelten Rillen und Marmorkugeln über. Mit seiner Hilfe war es möglich, die einfachsten mathematischen Operationen der Addition und Subtraktion durchzuführen.

Die chinesische Abakusart – Suanpan – erschien im 6. Jahrhundert n. Chr.; Soroban ist ein japanischer Abakus, abgeleitet vom chinesischen Suanpan, der im 15.-16. Jahrhundert nach Japan gebracht wurde. XVI Jahrhundert - Es entsteht ein russischer Abakus mit dezimalem Zahlensystem. Sie haben im Laufe der Jahrhunderte erhebliche Veränderungen erfahren, werden aber bis in die 80er Jahre des 20. Jahrhunderts weiterhin verwendet.

Zu Beginn des 17. Jahrhunderts führte der schottische Mathematiker J. Napier den Logarithmus ein, der einen revolutionären Einfluss auf das Zählen hatte. Der von ihm erfundene Rechenschieber wurde vor fünfzehn Jahren erfolgreich eingesetzt und diente Ingenieuren mehr als 360 Jahre lang. Es ist zweifellos die Krönung der manuellen Rechenwerkzeuge der Automatisierungsperiode.

Die Entwicklung der Mechanik im 17. Jahrhundert wurde zur Voraussetzung für die Entwicklung von Rechengeräten und -instrumenten mit der mechanischen Berechnungsmethode. Unter den mechanischen Geräten gibt es Addiermaschinen (sie können addieren und subtrahieren), ein Multiplikationsgerät (sie multiplizieren und dividieren), im Laufe der Zeit wurden sie zu einem zusammengefasst – einer Addiermaschine (sie können alle 4 Rechenoperationen ausführen).

In den Tagebüchern des brillanten Italieners Leonardo da Vinci (1452-1519) wurden bereits in unserer Zeit eine Reihe von Zeichnungen entdeckt, die sich als Skizze eines Summierrechners auf Zahnrädern entpuppten, der 13-Bit-Dezimalzahlen addieren konnte . In jenen fernen Jahren war der brillante Wissenschaftler wahrscheinlich der einzige Mensch auf der Erde, der die Notwendigkeit verstand, Geräte zu entwickeln, die die Arbeit bei der Durchführung von Berechnungen erleichtern. Der Bedarf dafür war jedoch so gering (oder besser gesagt, er bestand überhaupt nicht!), dass erst mehr als hundert Jahre nach dem Tod von Leonardo da Vinci ein anderer Europäer gefunden wurde – der deutsche Wissenschaftler Wilhelm Schickard (1592-1636). ), der natürlich die Tagebücher des großen Italieners nicht las – der seine Lösung für dieses Problem vorschlug. Der Anlass, der Schiccard dazu veranlasste, eine Rechenmaschine zum Summieren und Multiplizieren sechsstelliger Dezimalzahlen zu entwickeln, war seine Bekanntschaft mit dem polnischen Astronomen J. Kepler. Nachdem Schickard die Arbeit des großen Astronomen kennengelernt hatte, die hauptsächlich mit Berechnungen zu tun hatte, kam ihm die Idee, ihm bei seiner schwierigen Arbeit zu helfen. In einem an ihn gerichteten Brief aus dem Jahr 1623 gibt er eine Zeichnung der Maschine und erklärt, wie sie funktioniert.

Eines der ersten Beispiele für solche Mechanismen war die „Zähluhr“ des deutschen Mathematikers Wilhelm Schickard. Im Jahr 1623 entwickelte er eine Maschine, die zur ersten automatischen Rechenmaschine wurde. Schickards Maschine konnte sechsstellige Zahlen addieren und subtrahieren und klingelte, wenn sie voll war. Leider hat die Geschichte keine Informationen über das weitere Schicksal des Autos erhalten.

Die Erfindungen von Leonardo da Vinci und Wilhelm Schiccard wurden erst in unserer Zeit bekannt. Sie waren ihren Zeitgenossen unbekannt.

Der berühmteste der ersten Computer war die Summiermaschine von Blaise Pascal, der 1642 das Pascalina-Modell baute – Addiermaschine für achtstellige Zahlen. B. Pascal begann im Alter von 19 Jahren mit der Kreation von Pascalina und beobachtete dabei die Arbeit seines Vaters, der Steuereintreiber war und oft lange und langwierige Berechnungen durchführen musste. Und sein einziges Ziel war es, ihm bei seiner Arbeit zu helfen.

Im Jahr 1673 entwickelte der deutsche Mathematiker Leibniz das erste Arithmometer, mit dem er alle vier Rechenoperationen durchführen konnte. „...Meine Maschine ermöglicht es, Multiplikationen und Divisionen über große Zahlen sofort durchzuführen, ohne auf sequentielle Addition und Subtraktion zurückgreifen zu müssen“, schrieb V. Leibniz an einen seiner Freunde. Die Maschine von Leibniz war in den meisten europäischen Ländern bekannt.

Das Berechnungsprinzip erwies sich als erfolgreich; anschließend wurde das Modell in verschiedenen Ländern von verschiedenen Wissenschaftlern immer wieder verfeinert.

Und ab 1881 wurde die Serienproduktion von Addiermaschinen organisiert, die bis in die sechziger Jahre des 20. Jahrhunderts für praktische Berechnungen eingesetzt wurden.

Das bekannteste Serienmodell war die in Russland hergestellte Felix-Addiermaschine, die ihren Namen im Jahr 1900 erhielt. auf der internationalen Ausstellung in Paris eine Goldmedaille.

In die mechanische Periode fallen auch die theoretischen Entwicklungen der Analysemaschinen von Babidge, die aus Geldmangel nicht umgesetzt wurden. Die theoretischen Entwicklungen reichen bis in die Jahre 1920-1971 zurück. Die Analytical Engine sollte die erste Maschine sein, die das Prinzip der Programmsteuerung nutzte und beliebige Algorithmen berechnen konnte, Input-Output wurde über Lochkarten geplant, sie sollte auf einer Dampfmaschine funktionieren. Die Analysemaschine bestand aus den folgenden vier Hauptteilen: einer Speichereinheit für Anfangs-, Zwischen- und Ergebnisdaten (Lager – Speicher); Datenverarbeitungseinheit (Mühle - Rechengerät); Berechnungssequenz-Steuergerät (Steuergerät); Block zur Eingabe erster Daten und Druckergebnisse (Ein-/Ausgabegeräte), der später als Prototyp für den Aufbau aller modernen Computer diente. Lady Ada Lovelace (Tochter des englischen Dichters George Byron) arbeitete gleichzeitig mit dem englischen Wissenschaftler. Sie entwickelte die ersten Programme für die Maschine, legte viele Ideen fest und führte eine Reihe von Konzepten und Begriffen ein, die bis heute erhalten sind. Gräfin Lovelace gilt als die erste Computerprogrammiererin und die Programmiersprache ADA ist nach ihr benannt. Obwohl das Projekt nicht umgesetzt wurde, war es weithin bekannt und wurde von Wissenschaftlern hoch geschätzt. Charles Babidge war seiner Zeit ein Jahrhundert voraus.

Fortsetzung folgt…