Geschichte der Entwicklung mechanischer Computer. Technische Informatik. Vom Taschenrechner zum Computer

Vorlesung Nr. 10. GESCHICHTE DER ENTWICKLUNG DER COMPUTERTECHNIK

1.1. DIE ANFANGSPHASE DER ENTWICKLUNG VON COMPUTERGERÄTEN

Der Bedarf, die Datenverarbeitung, einschließlich Berechnungen, zu automatisieren, ist schon vor langer Zeit entstanden. Es wird angenommen, dass historisch gesehen das erste und dementsprechend einfachste Zählgerät der Abakus war, der sich auf handgehaltene Zählgeräte bezieht.

Das Brett wurde in Rillen unterteilt. Eine Rille entsprach der Einerstelle, die andere der Zehnerstelle usw. Wenn beim Zählen mehr als 10 Kieselsteine ​​in einer Rille gesammelt wurden, wurden diese entfernt und ein Kieselstein in die nächste Reihe hinzugefügt. In den Ländern des Fernen Ostens war das chinesische Analogon des Abakus weit verbreitet - Suan-Pan(Die Zählung basierte nicht auf zehn, sondern auf fünf), in Russland - Abakus.

Abakus

Suan-pan. Gegründet 1930

Abakus. Stellen Sie 401.28 ein

Der erste uns überlieferte Versuch, das Problem der Schaffung einer Maschine zu lösen, die mehrstellige ganze Zahlen addieren kann, war eine Skizze eines 13-Bit-Addiergeräts, das um 1500 von Leonardo da Vinci entwickelt wurde.

Im Jahr 1642 erfand Blaise Pascal ein Gerät, das die mechanische Addition von Zahlen durchführte. Nachdem Gottfried Wilhelm Leibniz die Werke von Pascal kennengelernt und seine Rechenmaschine studiert hatte, verbesserte er sie erheblich und entwarf 1673 ein Arithmometer, das dies ermöglicht mechanisch Führen Sie vier Rechenoperationen durch. Seit dem 19. Jahrhundert haben Rechenmaschinen eine große Verbreitung und Verwendung gefunden. Sie führten sogar sehr komplexe Berechnungen durch, beispielsweise Berechnungen ballistischer Tabellen für das Artilleriefeuer. Es gab einen besonderen Beruf – einen Schalter.

Trotz des offensichtlichen Fortschritts im Vergleich zum Abakus und ähnlichen Geräten zur manuellen Berechnung sind diese mechanischen Rechengeräte erforderte eine ständige menschliche Beteiligung während des Berechnungsprozesses. Eine Person, die Berechnungen an einem solchen Gerät durchführt, steuert dessen Betrieb selbst und bestimmt die Reihenfolge der durchgeführten Vorgänge.

Der Traum der Erfinder der Computertechnologie bestand darin, eine Zählmaschine zu entwickeln, die ohne menschliches Eingreifen Berechnungen nach einem vorkompilierten Programm durchführen kann.

In der ersten Hälfte des 19. Jahrhunderts versuchte der englische Mathematiker Charles Babbage, ein universelles Rechengerät zu entwickeln – Analytische Maschine, das arithmetische Operationen ohne menschliches Zutun durchführen sollte. Die Analytical Engine umfasste Prinzipien, die für die Datenverarbeitung grundlegend geworden sind, und stellte alle Grundkomponenten eines modernen Computers bereit. Babbages Analytical Engine sollte aus folgenden Teilen bestehen:

1. „Fabrik“ ist ein Gerät, in dem alle Vorgänge zur Verarbeitung aller Arten von Daten (ALU) ausgeführt werden.

2. „Office“ ist ein Gerät, das die Organisation der Ausführung eines Datenverarbeitungsprogramms und den koordinierten Betrieb aller Maschinenkomponenten während dieses Prozesses (CU) gewährleistet.

3. „Warehouse“ ist ein Gerät zur Speicherung von Anfangsdaten, Zwischenwerten und Datenverarbeitungsergebnissen (Speicher oder einfach Speicher).

4. Geräte, die Daten in eine für einen Computer zugängliche Form umwandeln können (Verschlüsselung). Eingabegeräte.

5. Geräte, die in der Lage sind, die Ergebnisse der Datenverarbeitung in eine für den Menschen verständliche Form umzuwandeln. Ausgabegeräte.

In der Endversion der Maschine verfügte sie über drei Lochkarten-Eingabegeräte, aus denen das Programm und die zu verarbeitenden Daten eingelesen wurden.

Babbage war nicht in der Lage, das Werk fertigzustellen – es erwies sich angesichts der damaligen mechanischen Technologie als zu schwierig. Er entwickelte jedoch die Grundideen, und 1943 entwickelte der Amerikaner Howard Aiken, basierend auf der Technologie des 20. Jahrhunderts, elektromechanische Relais– konnte in einem der Unternehmen des Unternehmens bauen IBM ein solches Auto namens "Mark-1". Zur Darstellung von Zahlen dienten mechanische Elemente (Zählräder) und zur Steuerung elektromechanische Elemente.

1.2. DER ANFANG DER MODERNEN GESCHICHTE DER ELEKTRONISCHEN COMPUTING-TECHNIK

Im Zusammenhang mit der Nutzung elektronischer Geräte hat eine wahre Revolution in der Informatik stattgefunden. Die Arbeiten daran begannen Ende der 30er Jahre gleichzeitig in den USA, Deutschland, Großbritannien und der UdSSR. Zu diesem Zeitpunkt waren Vakuumröhren, die zur technischen Grundlage für Geräte zur Verarbeitung und Speicherung digitaler Informationen geworden waren, bereits weit verbreitet in Geräten der Funktechnik.

Einer der größten amerikanischen Mathematiker, John von Neumann, leistete in der Anfangsphase seiner Entwicklung einen großen Beitrag zur Theorie und Praxis der Entwicklung elektronischer Computertechnologie. „Von Neumanns Prinzipien“ sind für immer in die Geschichte der Wissenschaft eingegangen. Die Kombination dieser Prinzipien führte zur klassischen (von Neumann) Computerarchitektur. Eines der wichtigsten Prinzipien – das Stored-Program-Prinzip – erfordert, dass das Programm auf die gleiche Weise im Speicher der Maschine gespeichert wird, wie die Originalinformationen darin gespeichert sind. Der erste Computer mit einem gespeicherten Programm ( EDSAC ) wurde 1949 in Großbritannien gebaut.

In unserem Land erfolgte die Entwicklung von Computern bis in die 70er Jahre fast völlig unabhängig und unabhängig von der Außenwelt (und diese „Welt“ selbst war fast vollständig von den Vereinigten Staaten abhängig). Tatsache ist, dass die elektronische Computertechnologie vom Moment ihrer Entstehung an als streng geheimes strategisches Produkt galt und die UdSSR sie unabhängig entwickeln und produzieren musste. Allmählich wurde das Geheimhaltungsregime gelockert, aber selbst Ende der 80er Jahre konnte unser Land nur noch veraltete Computermodelle im Ausland kaufen (und die modernsten und leistungsstärksten Computer werden immer noch von führenden Herstellern – den USA und Japan – im Geheimen entwickelt und produziert). Modus).

Der erste heimische Computer, MESM („kleiner elektronischer Computer“), wurde 1951 unter der Leitung von Sergei Alexandrowitsch Lebedew, dem größten sowjetischen Computerdesigner, entwickelt. Der Rekord unter ihnen und zu seiner Zeit einer der besten der Welt war BESM-6 („große elektronische Rechenmaschine, 6. Modell“), das Mitte der 60er Jahre entwickelt wurde und lange Zeit die Basismaschine in der Verteidigung und im Weltraum war Forschung, wissenschaftliche und technische Forschung in der UdSSR. Neben Maschinen der BESM-Serie wurden auch Computer anderer Serien hergestellt – „Minsk“, „Ural“, M-20, „Mir“ und andere.

Mit Beginn der Serienproduktion begann die Einteilung der Computer in Generationen; Die entsprechende Klassifizierung ist unten aufgeführt.

1.3. COMPUTER-GENERATIONEN

In der Geschichte der Computertechnologie gibt es eine besondere Periodisierung der Computer nach Generationen. Es basierte zunächst auf einem physikalisch-technologischen Prinzip: Eine Maschine wird je nach den in ihr verwendeten physikalischen Elementen oder der Technologie zu ihrer Herstellung der einen oder anderen Generation zugeordnet. Die Grenzen der Generationen verschwimmen zeitlich, da gleichzeitig Autos völlig unterschiedlichen Niveaus produziert wurden. Wenn Daten angegeben werden, die sich auf Generationen beziehen, beziehen sie sich höchstwahrscheinlich auf den Zeitraum der industriellen Produktion; Der Entwurf wurde viel früher durchgeführt und auch heute noch sind sehr exotische Geräte in Betrieb.

Derzeit entscheidet nicht nur das physikalisch-technische Prinzip darüber, ob ein bestimmter Computer einer Generation angehört. Berücksichtigen Sie auch das Softwareniveau, die Geschwindigkeit und andere Faktoren, von denen die wichtigsten in der beigefügten Tabelle zusammengefasst sind. 4.1.

Es versteht sich, dass die Aufteilung der Computer nach Generationen sehr relativ ist. Die ersten Computer, die vor Beginn der 50er Jahre hergestellt wurden, waren „Stück“-Produkte, an denen die Grundprinzipien ausgearbeitet wurden; Es gibt keinen besonderen Grund, sie einer Generation zuzuordnen. Bei der Festlegung der Merkmale der fünften Generation besteht keine Einigkeit. Mitte der 80er Jahre glaubte man, das Hauptmerkmal dieser (zukünftigen) Generation sei vollständige Umsetzung der Prinzipien der künstlichen Intelligenz. Diese Aufgabe erwies sich als viel schwieriger, als es damals schien, und eine Reihe von Experten senken die Anforderungen für diese Phase (und behaupten sogar, dass sie bereits stattgefunden hat). In der Geschichte der Wissenschaft gibt es Analogien zu diesem Phänomen: Beispielsweise kündigten Wissenschaftler nach dem erfolgreichen Start der ersten Kernkraftwerke Mitte der 50er Jahre an, dass um ein Vielfaches leistungsfähigere, kostengünstigere und umweltfreundlichere thermonukleare Kraftwerke in Betrieb genommen würden es passiert gleich; Allerdings unterschätzten sie die gigantischen Schwierigkeiten auf diesem Weg, da es bis heute keine thermonuklearen Kraftwerke gibt.

Gleichzeitig ist der Unterschied bei Autos der vierten Generation extrem groß und daher in der Tabelle. 4.1 ist die entsprechende Spalte zweigeteilt: A und B. Die in der oberen Zeile angegebenen Daten entsprechen den ersten Produktionsjahren des Computers. Viele der in der Tabelle wiedergegebenen Konzepte werden in den folgenden Abschnitten des Lehrbuchs besprochen; An dieser Stelle beschränken wir uns auf einen kurzen Kommentar.

Je jünger die Generation, desto ausgeprägter sind die Klassifizierungsmerkmale. Computer der ersten, zweiten und dritten Generation sind heute bestenfalls Museumsstücke.

Welche Computer gehören zur ersten Generation?

ZU erste Generation beziehen sich normalerweise auf Autos, die um die Wende der 50er Jahre hergestellt wurden. Ihre Schemata wurden verwendet Vakuumröhren. Diese Computer waren riesige, unbequeme und zu teure Autos, das nur von großen Unternehmen und Regierungen erworben werden konnte. Die Lampen verbrauchten Unmengen an Strom und erzeugten viel Wärme.

Der Befehlssatz war klein, die Schaltung des arithmetisch-logischen Geräts und des Steuergeräts recht einfach und es gab praktisch keine Software. Die Indikatoren für RAM-Kapazität und Leistung waren niedrig. Zur Ein- und Ausgabe dienten Lochstreifen, Lochkarten, Magnetbänder und Druckgeräte.

Die Leistung beträgt etwa 10-20.000 Operationen pro Sekunde.

Aber das ist nur die technische Seite. Eine andere Sache ist ebenfalls sehr wichtig: die Art und Weise, wie Computer verwendet werden, der Programmierstil und die Funktionen der Software.

Für diese Maschinen wurden Programme geschrieben in der Sprache einer bestimmten Maschine. Der Mathematiker, der das Programm kompilierte, setzte sich an das Bedienfeld der Maschine, gab die Programme ein, debuggte sie und berechnete sie. Der Debugging-Vorgang dauerte am längsten.

Trotz der begrenzten Fähigkeiten ermöglichten diese Maschinen die Durchführung komplexer Berechnungen, die für die Wettervorhersage, die Lösung von Kernenergieproblemen usw. erforderlich waren.

Erfahrungen mit Maschinen der ersten Generation zeigten, dass zwischen der Zeit, die für die Entwicklung von Programmen aufgewendet wurde, und der Berechnungszeit eine große Lücke klaffte.

Haushaltsmaschinen der ersten Generation: MESM (kleine elektronische Rechenmaschine), BESM, Strela, Ural, M-20.

Welche Computer gehören zur zweiten Generation?

Zweite Generation Computerausrüstung – Maschinen, die zwischen 1955 und 1965 entworfen wurden. Sie zeichnen sich durch ihre Verwendung als aus Vakuumröhren, so und diskrete Transistor-Logikelemente. Ihr RAM war auf Magnetkernen aufgebaut. Zu dieser Zeit begann sich die Palette der verwendeten Ein-/Ausgabegeräte zu erweitern und die Leistung zu steigern Geräte zum Arbeiten mit Magnetbändern, Magnettrommeln und die ersten Magnetplatten.

Leistung- bis zu Hunderttausende Operationen pro Sekunde, Speicherkapazität- bis zu mehreren Zehntausend Wörtern.

Die sogenannte Hochsprachen, deren Mittel die Beschreibung der gesamten notwendigen Abfolge von Rechenaktionen ermöglichen in klarer, leicht verständlicher Form.

Ein in einer algorithmischen Sprache geschriebenes Programm ist für einen Computer unverständlich, der nur die Sprache seiner eigenen Befehle versteht. Daher werden spezielle Programme aufgerufen Rundfunkveranstalter, ein Programm von einer Hochsprache in Maschinensprache übersetzen.

Zur Lösung verschiedener mathematischer Probleme ist eine breite Palette von Bibliotheksprogrammen erschienen. Erschien Überwachungssysteme, Steuerung der Art der Ausstrahlung und Ausführung von Programmen. Monitorsysteme entwickelten sich später zu modernen Betriebssystemen.

Auf diese Weise, Das Betriebssystem ist eine Softwareerweiterung des Computersteuergeräts.

Für einige Maschinen der zweiten Generation wurden bereits Betriebssysteme mit eingeschränkten Fähigkeiten erstellt.

Charakterisiert wurden Autos der zweiten Generation Software-Inkompatibilität, was die Organisation großer Informationssysteme erschwerte. Daher kam es Mitte der 60er Jahre zu einem Übergang zur Entwicklung softwarekompatibler Computer, die auf einer mikroelektronischen Technologiebasis basierten.

Was sind die Merkmale von Computern der dritten Generation?

Maschinen der dritten Generation entstanden etwa nach den 60er Jahren. Da der Prozess der Entwicklung der Computertechnologie kontinuierlich war und viele Menschen aus verschiedenen Ländern an der Auseinandersetzung mit unterschiedlichen Problemen beteiligt waren, ist es schwierig und vergeblich, den Beginn und das Ende einer „Generation“ zu bestimmen. Das vielleicht wichtigste Kriterium zur Unterscheidung von Maschinen der zweiten und dritten Generation basiert auf dem Konzept der Architektur.

Maschinen der dritten Generation sind Maschinenfamilien mit einer einzigen Architektur, d. h. Softwarekompatibel. Als elementare Basis nutzen sie integrierte Schaltkreise, auch Mikroschaltkreise genannt.

Maschinen der dritten Generation verfügen über fortschrittliche Betriebssysteme. Sie verfügen über Multiprogrammierfähigkeiten, d.h. gleichzeitige Ausführung mehrerer Programme. Viele Aufgaben der Speicher-, Geräte- und Ressourcenverwaltung wurden zunehmend vom Betriebssystem oder der Maschine selbst übernommen.

Beispiele für Maschinen der dritten Generation sind die Familien IBM-360, IBM-370, ES EVM (Unified Computer System), SM EVM (Family of Small Computers) usw.

Die Leistung der Maschinen innerhalb der Familie variiert zwischen mehreren Zehntausend und Millionen Operationen pro Sekunde. Die RAM-Kapazität beträgt mehrere hunderttausend Wörter.

Was ist charakteristisch für Autos der vierten Generation?

Vierte Generation ist die aktuelle Generation der Computertechnologie, die nach 1970 entwickelt wurde.

Das konzeptionell wichtigste Kriterium, anhand dessen sich diese Computer von den Maschinen der dritten Generation unterscheiden lassen, besteht darin, dass die Maschinen der vierten Generation so konzipiert wurden, dass sie moderne Hochsprachen effizient nutzen und den Programmierprozess für den Endbenutzer vereinfachen.

Hardwaremäßig zeichnen sie sich durch eine weite Verbreitung aus integrierte Schaltkreise als elementare Basis sowie das Vorhandensein von Hochgeschwindigkeitsspeichergeräten mit wahlfreiem Zugriff und einer Kapazität von mehreren zehn Megabyte.

Aus struktureller Sicht stellen Maschinen dieser Generation dar Multiprozessor- und Multimaschinensysteme, Arbeiten am gemeinsamen Speicher und einem gemeinsamen Bereich externer Geräte. Die Leistung beträgt bis zu mehreren zehn Millionen Operationen pro Sekunde, die RAM-Kapazität beträgt etwa 1 - 64 MB.

Sie zeichnen sich aus durch:

  • Nutzung von Personalcomputern;
  • Telekommunikationsdatenverarbeitung;
  • Computernetzwerke;
  • weit verbreitete Nutzung von Datenbankverwaltungssystemen;
  • Elemente des intelligenten Verhaltens von Datenverarbeitungssystemen und -geräten.

Wie sollten Computer der fünften Generation aussehen?

Die Entwicklung nachfolgender Computergenerationen basiert auf hochintegrierte großintegrierte Schaltkreise, die Verwendung optoelektronischer Prinzipien ( Laser,Holographie).

Auch die Entwicklung ist im Gange „Intellektualisierung“ Computer, wodurch die Barriere zwischen Mensch und Computer beseitigt wird. Computer werden in der Lage sein, Informationen aus handgeschriebenem oder gedrucktem Text, aus Formularen, aus der menschlichen Stimme wahrzunehmen, den Benutzer anhand der Stimme zu erkennen und von einer Sprache in eine andere zu übersetzen.

Bei Computern der fünften Generation wird es einen qualitativen Übergang von der Verarbeitung geben Daten zum Bearbeiten Wissen.

Die Architektur künftiger Computergenerationen wird aus zwei Hauptblöcken bestehen. Einer von ihnen ist traditionell Computer. Doch nun ist ihm die Kommunikation mit dem Nutzer entzogen. Diese Verbindung wird durch einen Block hergestellt, der Term genannt wird „Intelligente Schnittstelle“. Seine Aufgabe besteht darin, in natürlicher Sprache verfasste Texte zu verstehen, die den Zustand des Problems enthalten, und ihn in ein funktionierendes Computerprogramm zu übersetzen.

Das Problem der Dezentralisierung der Datenverarbeitung wird auch durch Computernetzwerke gelöst, sowohl große, weit voneinander entfernte Computer als auch Miniaturcomputer, die auf einem einzigen Halbleiterchip untergebracht sind.

Computergenerationen

Index

Computergenerationen

Erste

1951-1954

Zweite

1958-1960

Dritte

1965-1966

Vierte

Fünfte

1976-1979

1985-?

Prozessorelementbasis

Elektronisch

Lampen

Transistoren

Integrale Schaltkreise

(IST)

Große ICs (LSI)

SuperlargeICs

(VLSI)

Optoelektronik

Kryoelektronik

RAM-Elementbasis

Kathodenstrahlröhren

Ferritkerne

Ferrit

Kerne

BIS

VLSI

VLSI

Maximale RAM-Kapazität, Bytes

10 2

10 1

10 4

10 5

10 7

10 8 (?)

Maximale Prozessorgeschwindigkeit (op/s)

10 4

10 6

10 7

10 8

10 9

Mehrfachverarbeitung

10 12 ,

Mehrfachverarbeitung

Programmiersprachen

Maschinensprache

Monteur

Hochprozedurale Sprachen (HLP)

Neu

Verfahrenssprachen

Nicht-prozedurale Computer

Neue nicht-verfahrenstechnische Kernkraftwerke

Kommunikationsmittel zwischen dem Benutzer und dem Computer

Bedienfeld und Lochkarten

Lochkarten und Papierbänder

Alphanumerisches Terminal

Monochromes Grafikdisplay, Tastatur

Farb- + Grafikdisplay, Tastatur, Maus usw.

Der alte Mann hatte sein eigenes Zählinstrument – ​​zehn Finger an seinen Händen. Der Mann beugte seine Finger – fügte sie hinzu, richtete sie wieder auf – subtrahierte sie. Und der Mann vermutete: Zum Zählen kann man alles verwenden, was man in die Finger bekommt – Kieselsteine, Stöcke, Knochen. Dann begannen sie, Knoten am Seil zu machen und Kerben in Stöcke und Bretter zu machen (Abb. 1.1).

Reis. 1.1. Knötchen (A) und Kerben auf den Tabletten ( B)

Abakus-Zeit. Ein Abakus (gr. abax – Brett) war ein mit einer Staubschicht bedecktes Brett, auf dem mit einem spitzen Stock Linien gezeichnet und in den entstandenen Spalten nach dem Positionsprinzip einige Gegenstände platziert wurden. Im V-IV Jahrhundert. Chr e. Es entstanden die ältesten bekannten Berichte – das „Salamin-Brett“ (benannt nach der Insel Salamis in der Ägäis), das von den Griechen und Westeuropa „Abakus“ genannt wurde. Im antiken Rom tauchte der Abakus im 5.-6. Jahrhundert auf. N. e. und wurde Kalküle oder Abakuli genannt. Der Abakus wurde aus Bronze, Stein, Elfenbein und farbigem Glas hergestellt. Bis heute ist ein bronzener römischer Abakus erhalten, auf dem sich Kieselsteine ​​in vertikal eingeschnittenen Rillen bewegten (Abb. 1.2).

Reis. 1.2.

Im XV-XVI Jahrhundert. In Europa war das Zählen an Linien oder Zähltischen mit darauf platzierten Wertmarken üblich.

Im 16. Jahrhundert Es erschien ein russischer Abakus mit einem Dezimalzahlensystem. Im Jahr 1828 stellte Generalmajor F. M. Svobodskoy ein Originalgerät aus, das aus vielen Konten bestand, die in einem gemeinsamen Rahmen verbunden waren (Abb. 1.3). Alle Operationen wurden auf die Aktionen der Addition und Subtraktion reduziert.

Reis. 1.3.

Zeit der mechanischen Geräte. Diese Periode dauerte vom Anfang des 17. bis zum Ende des 19. Jahrhunderts.

Im Jahr 1623 beschrieb Wilhelm Schickard den Entwurf einer Rechenmaschine, in der die Operationen Addition und Subtraktion mechanisiert waren. Im Jahr 1642 konstruierte der französische Mechaniker Blaise Pascal die erste mechanische Rechenmaschine – „Pascalina“ (Abb. 1.4).

Im Jahr 1673 schuf der deutsche Wissenschaftler Goftrid Leibniz die erste mechanische Rechenmaschine

Reis. 1.4.

Zeigen Sie vier Rechenoperationen (Addition, Subtraktion, Multiplikation und Division). Im Jahr 1770 schuf E. Jacobson in Litauen eine Summiermaschine, die Quotienten ermittelte und mit fünfstelligen Zahlen arbeiten konnte.

1801 - 1804. Der französische Erfinder J.M. Jacquard war der erste, der Lochkarten zur Steuerung eines automatischen Webstuhls verwendete.

Im Jahr 1823 entwickelte der englische Wissenschaftler Charles Babbage ein Projekt für die „Difference Engine“, das den modernen programmgesteuerten Automaten vorwegnahm (Abb. 1.5).

Im Jahr 1890 erfand der St. Petersburger Vilgodt Odner eine Rechenmaschine und startete deren Produktion. Bis 1914 gab es allein in Russland mehr als 22.000 Odner-Redemaschinen. Im ersten Viertel des 20. Jahrhunderts. Diese Addiermaschinen waren die einzigen mathematischen Maschinen, die in verschiedenen Bereichen der menschlichen Tätigkeit weit verbreitet waren (Abb. 1.6).


Reis. 1.5. Babbages Maschine Abb. 1.6. Rechenmaschine

Computerzeit. Diese Zeit begann im Jahr 1946 und dauert bis heute an. Es zeichnet sich durch die Kombination von Fortschritten auf dem Gebiet der Elektronik mit neuen Prinzipien für den Computerbau aus.

1946 entstand unter der Leitung von J. Mauchly und J. Eckert der erste Computer in den USA – ENIAC (Abb. 1.7). Es hatte die folgenden Eigenschaften: Länge 30 m, Höhe 6 m, Gewicht 35 Tonnen, 18.000 Vakuumröhren, 1.500 Relais, 100.000 Widerstände und Kondensatoren, 3.500 Operationen/s. Gleichzeitig begannen diese Wissenschaftler mit der Arbeit an einer neuen Maschine – „EDVAC“ (EDVAC – Electronic).


Reis. 1.7.

Discret Variable Automatic Computer – ein elektronischer automatischer Computer mit diskreten Variablen, dessen Programm im Speicher des Computers gespeichert werden musste. Als interner Speicher sollten Quecksilberröhren verwendet werden, die im Radar verwendet werden.

1949 wurde in Großbritannien der EDSAC-Computer mit einem im Speicher abgelegten Programm gebaut.

Das Erscheinen der ersten Computer ist immer noch umstritten. So halten die Deutschen den ersten Computer für eine 1941 von Konrad Zuse geschaffene Maschine für Artilleriemannschaften, obwohl sie mit elektrischen Relais arbeitete und somit nicht elektronisch, sondern elektromechanisch war. Für Amerikaner ist dies ENIAC (1946, J. Mauchly und J. Eckert). Als Erfinder des Computers betrachten die Bulgaren John (Ivan) Atanasov, der 1941 in den USA eine Maschine zur Lösung algebraischer Gleichungssysteme entwarf.

Nachdem die Briten geheime Archive durchsucht hatten, gaben sie an, dass der erste elektronische Computer 1943 in England entwickelt worden sei und dazu gedacht sei, Verhandlungen des deutschen Oberkommandos zu entschlüsseln. Diese Ausrüstung galt als so geheim, dass sie nach dem Krieg auf Befehl Churchills zerstört und die Pläne verbrannt wurden, um zu verhindern, dass das Geheimnis in die falschen Hände gerät.

Die Deutschen führten geheime Alltagskorrespondenz mit Enigma-Verschlüsselungsmaschinen (lateinisch: Enigma – Rätsel). Zu Beginn des Zweiten Weltkriegs wussten die Briten bereits, wie Enigma funktionierte, und suchten nach Möglichkeiten, ihre Nachrichten zu entschlüsseln. Die Deutschen verfügten jedoch über ein anderes Verschlüsselungssystem, das nur für die wichtigsten Nachrichten konzipiert war. Es handelte sich um eine Schlüsselzusatz-40-Maschine, die von Lorenz in kleiner Stückzahl hergestellt wurde (der Name bedeutet übersetzt „Chiffrieraufsatz“). Äußerlich war es eine Mischung aus einem gewöhnlichen Fernschreiber und einer mechanischen Registrierkasse. Der Fernschreiber übersetzte den auf der Tastatur eingegebenen Text in eine Folge elektrischer Impulse und Pausen dazwischen (jeder Buchstabe entspricht einer Reihe von fünf Impulsen und „Leerstellen“). Die „Registrierkasse“ drehte zwei Sätze mit fünf Zahnrädern, die zufällig zwei weitere Sätze mit fünf Impulsen und Sprüngen zu jedem Buchstaben hinzufügten. Die Zähne der Räder waren unterschiedlich und diese Zahl konnte verändert werden: Die Zähne waren beweglich, man konnte sie zur Seite verschieben oder an ihren Platz ziehen. Es gab zwei weitere „Motor“-Räder, von denen jedes seine eigenen Zahnräder drehte.

Zu Beginn der Übertragung der verschlüsselten Nachricht teilte der Funker dem Empfänger die Ausgangsposition der Räder und die Anzahl der Zähne an jedem Rad mit. Diese Einstellungsdaten wurden vor jeder Übertragung geändert. Indem der empfangende Funker die gleichen Radsätze an der gleichen Position an seinem Gerät anbrachte, stellte er sicher, dass die zusätzlichen Buchstaben automatisch vom Text abgezogen wurden und der Fernschreiber die ursprüngliche Nachricht druckte.

1943 entwickelte der Mathematiker Max Newman in England die elektronische Maschine Colossus. Die Räder des Autos wurden durch 12 Gruppen von Elektronenröhren – Thyratrons – modelliert. Indem „Colossus“ automatisch verschiedene Optionen für die Zustände jedes Thyratrons und ihre Kombinationen durchging (das Thyratron kann sich in zwei Zuständen befinden – um elektrischen Strom durchzulassen oder nicht durchzulassen, d. h. einen Impuls zu geben oder eine Pause zu geben), hat er den Anfang herausgefunden Einstellung der Zahnräder der deutschen Maschine. Die erste Version des „Colossus“ verfügte über 1.500 Thyratrons, die zweite, die im Juni 1944 in Betrieb ging, über 2.500. In einer Stunde „schluckte“ die Maschine 48 km Lochstreifen, auf die die Bediener Reihen von Einsen und Einsen füllten Nullen aus deutschen Nachrichten; 5.000 Briefe wurden pro Sekunde verarbeitet. Dieser Computer verfügte über einen Speicher, der auf Lade- und Entladekondensatoren basierte. Dadurch war es möglich, die streng geheime Korrespondenz von Hitler, Kesselring, Rommel usw. zu lesen.

Notiz. Ein moderner Computer löst die Ausgangsposition der Räder des Schlüsselzusatz-40 doppelt so langsam wie der Colossus, sodass ein Problem, das 1943 in 15 Minuten gelöst wurde, der Repyit-PC in 18 Stunden benötigt! Tatsache ist, dass moderne Computer universell einsetzbar sind, eine Vielzahl von Aufgaben ausführen können und nicht immer mit alten Computern konkurrieren können, die nur eine Aktion, aber sehr schnell, ausführen konnten.

Der erste elektronische Haushaltscomputer, MESM, wurde 1950 entwickelt. Er enthielt mehr als 6.000 Vakuumröhren. Zu dieser Computergeneration gehören: „BESM-1“, „M-1“, „M-2“, „M-3“, „Strela“, „Minsk-1“, „Ural-1“, „Ural-2“. ", "Ural-3", "M-20", "Setun", "BESM-2", "Hrazdan" (Tabelle 1.1). Ihre Geschwindigkeit überschritt nicht 2-3.000 Operationen/s, die RAM-Kapazität betrug 2 K oder 2048 Maschinenwörter (1 K = 1024) mit einer Länge von 48 Binärzeichen.

Tabelle 1.1. Eigenschaften von Heimcomputern

Figuren

Erste Generation

Zweite Generation

Targeting

Länge ma-

Reifenfichte

va (Binärziffern)

Geschwindigkeit

Eisenkern

Etwa die Hälfte des gesamten Datenvolumens der weltweiten Informationssysteme ist auf Großrechnern gespeichert. Für diese Zwecke gründete das Unternehmen 1BM bereits in den 1960er Jahren. begann mit der Produktion der Computer 1ВМ/360, 1ВМ/370 (Abb. 1.8), die sich weltweit verbreiteten.

Mit dem Aufkommen der ersten Computer im Jahr 1950 entstand die Idee, Computertechnik zur Steuerung technologischer Prozesse einzusetzen. Die computergestützte Steuerung ermöglicht es Ihnen, die Prozessparameter nahezu optimal zu halten. Dadurch wird der Material- und Energieverbrauch reduziert, Produktivität und Qualität gesteigert und eine schnelle Umrüstung der Anlagen zur Herstellung eines anderen Produkttyps gewährleistet.


Reis. 1.8.

Pionier des industriellen Einsatzes von Steuerungsrechnern im Ausland war die Firma Digital Equipment Corp. (DEC), das 1963 einen Spezialcomputer „PDP-5“ zur Steuerung von Kernreaktoren herausbrachte. Bei den Ausgangsdaten handelte es sich um Messungen, die als Ergebnis einer Analog-Digital-Umwandlung gewonnen wurden und deren Genauigkeit 10–11 Binärziffern betrug. Im Jahr 1965 brachte DEC den ersten Miniaturcomputer „PDP-8“ in der Größe eines Kühlschranks auf den Markt, der 20.000 Dollar kostete und dessen Elementbasis verwendet wurde integrierte Schaltkreise.

Vor dem Aufkommen integrierter Schaltkreise wurden Transistoren einzeln hergestellt und mussten beim Zusammenbau der Schaltkreise von Hand verbunden und gelötet werden. Im Jahr 1958 fand der amerikanische Wissenschaftler Jack Kilby heraus, wie man mehrere Transistoren auf einem Halbleiterwafer herstellen kann. Im Jahr 1959 erfand Robert Noyce (der spätere Gründer von Intel) eine fortschrittlichere Methode, die es ermöglichte, Transistoren und alle notwendigen Verbindungen zwischen ihnen auf einer Platte herzustellen. Die daraus resultierenden elektronischen Schaltkreise wurden als integrierte Schaltkreise bekannt Chips. Anschließend verdoppelte sich die Anzahl der Transistoren, die pro Flächeneinheit des integrierten Schaltkreises platziert werden konnten, jedes Jahr etwa um das Doppelte. 1968 brachte Burroughs den ersten Computer mit integrierten Schaltkreisen auf den Markt, und 1970 begann Intel mit dem Verkauf von integrierten Speicherschaltkreisen.

1970 wurde ein weiterer Schritt auf dem Weg zum Personal Computer getan – Marchian Edward Hoff von Intel entwarf einen integrierten Schaltkreis, der in seinen Funktionen dem Zentralprozessor eines Großrechners ähnelte. So erschien der erste Mikroprozessor Intel-4004, der Ende 1970 auf den Markt kam. Natürlich waren die Fähigkeiten des Intel-4004 viel bescheidener als die des Zentralprozessors eines Großrechners – er arbeitete viel langsamer und konnte nur 4 Bit verarbeiten Informationen gleichzeitig (Mainstream-Prozessoren verarbeiteten 16 oder 32 Bit gleichzeitig). 1973 veröffentlichte Intel den 8-Bit-Mikroprozessor Intel-8008 und 1974 seine verbesserte Version Intel-8080, die bis Ende der 1970er Jahre existierte. war der Standard für die Mikrocomputerindustrie (Tabelle 1.2).

Tabelle 1.2. Generationen von Computern und ihre Hauptmerkmale

Generation

Vierter (seit 1975)

Computerelementbasis

Elektronische Röhren, Relais

Transistoren,

Parameter

Ultragroße ICs (VLSI)

CPU-Leistung

Bis zu 3 · 10 5 Operationen/s

Bis zu 3 · 10 6 Operationen/s

Bis zu 3 · 10 7 Operationen/s

3 10 7 op/s

Art des Arbeitsspeichers (RAM)

Löst aus,

Ferrit

Kerne

Miniatur

Ferrit

Kerne

Halbleiter an

Halbleiter an

Mehr als 16 MB

Charakteristische Computertypen

Generationen

Klein, mittel, groß, besonders

Mini- und Mikrocomputer

Supercomputer,

PC, Spezial, Allgemein, Computernetzwerke

Typische Generationsmodelle

IBM 7090, BESM-6

BH-2, 1VM RS/XT/AT, RB/2, Sgau, Netzwerke

Charakteristisch

Software

Sicherheit

Codes, Autocodes, Assembler

Programmiersprachen, Dispatcher, automatisierte Steuerungssysteme, Prozessleitsysteme

PPP, DBMS, CAD, Javascript, betriebsbereit

DB, ES, parallele Programmiersysteme

Generationen von Computern werden durch die Elementbasis (Lampen, Halbleiter, Mikroschaltungen unterschiedlicher Integrationsgrade (Abb. 1.9)), Architektur und Rechenfähigkeiten (Tabelle 1.3) bestimmt.

Tabelle 1.3. Merkmale von Computergenerationen

Generation

Besonderheiten

I. Generation (1946-1954)

Anwendung der Vakuumröhrentechnologie, Einsatz von Speichersystemen auf Quecksilberverzögerungsleitungen, Magnettrommeln, Kathodenstrahlröhren. Für die Dateneingabe und -ausgabe wurden Lochstreifen und Lochkarten, Magnetbänder und Druckgeräte verwendet

II. Generation (1955-1964)

Verwendung von Transistoren. Computer sind zuverlässiger geworden und ihre Leistung ist gestiegen. Mit dem Aufkommen des Speichers auf Magnetkernen verringerte sich sein Betriebszyklus auf mehrere zehn Mikrosekunden. Das Hauptprinzip der Struktur ist die Zentralisierung. Es erschienen Hochleistungsgeräte für die Arbeit mit Magnetbändern und Magnetplattenspeichergeräten

III. Generation (1965-1974)

Computer wurden auf Basis integrierter Schaltkreise mit niedrigem Integrationsgrad (MIS von 10 bis 100 Komponenten pro Chip) und mittlerem Integrationsgrad (SIS von 10 bis 1000 Komponenten pro Chip) entwickelt. Ende der 1960er Jahre. Minicomputer erschienen. 1971 erschien der erste Mikroprozessor

IV. Generation (seit 1975)

Die Verwendung großer integrierter Schaltkreise (LSI von 1000 bis 100.000 Komponenten pro Chip) und ultragroßer integrierter Schaltkreise (VLSI von 100.000 bis 10 Millionen Komponenten pro Chip) bei der Erstellung von Computern. Das Hauptaugenmerk bei der Entwicklung von Computern liegt auf deren „Intelligenz“ sowie auf einer auf Wissensverarbeitung ausgerichteten Architektur


ein B C

Reis. 1.9. Computerelementbasis: A - elektrische Lampe; B - Transistor;

V- Integrierter Schaltkreis

Der erste Mikrocomputer war der Altair-8800, der 1975 von einem kleinen Unternehmen in Albuquerque (New Mexico) auf Basis des Intel-8080-Mikroprozessors entwickelt wurde. Ende 1975 entwickelten Paul Allen und Bill Gates (die späteren Gründer von Microsoft) einen Basic-Sprachinterpreter für den Altair-Computer, der es Benutzern ermöglichte, ganz einfach Programme zu schreiben.

Anschließend erschienen die Computer TRS-80 RS, RET RS und Apple (Abb. 1.10).

Reis. 1.10.

Die heimische Industrie produzierte DEC-kompatible (interaktive Computersysteme DVK-1, ..., DVK-4 basierend auf den Computern Elektronika MS-101, Elektronika 85, Elektronika 32) und IBM PC-kompatible (EC 1840 - EC 1842, EC 1845). , EC 1849, EC 1861, Iskra 4861), die in ihren Eigenschaften den oben genannten deutlich unterlegen waren.

In letzter Zeit sind Personalcomputer von US-Unternehmen weithin bekannt geworden: Compaq Computer, Apple (Macintosh), Hewlett Packard, Dell, DEC; Britische Unternehmen: Spectrum, Amstard; von der französischen Firma Micra; von der italienischen Firma Olivetty; Japanische Unternehmen: Toshiba, Panasonic, Partner.

Am beliebtesten sind derzeit Personalcomputer von IBM (International Business Machines Corporation).

1983 erschien der IBM PC XT-Computer mit integrierter Festplatte und 1985 der IBM PC AT-Computer auf Basis des 16-Bit-Intel 80286-Prozessors (Abb. 1.11).

1989 wurde der Intel 80486-Prozessor mit den Modifikationen 486SX, 486DX, 486DX2 und 486DX4 entwickelt. Die Taktfrequenzen der 486DX-Prozessoren betragen je nach Modell 33, 66 und 100 MHz.


Die neue PC-Modellfamilie von IBM heißt PS/2 (Personal System 2). Die ersten Modelle der PS/2-Familie verwendeten den Intel 80286-Prozessor und kopierten eigentlich den AT PC, basierten jedoch auf einer anderen Architektur.

1993 erschienen Pentium-Prozessoren mit Taktfrequenzen von 60 und 66 MHz.

1994 begann Intel mit der Produktion von Pentium-Prozessoren mit Taktfrequenzen von 75, 90 und 100 MHz. 1996 stieg die Taktfrequenz der Pentium-Prozessoren auf 150, 166 und 200 MHz (Abb. 1.12).


System

Manipulator vom Typ Maus

Reis. 1.12. Multimedia-Computerkonfiguration

1997 brachte Intel einen neuen Pentium MMX-Prozessor mit Taktfrequenzen von 166 und 200 MHz auf den Markt. Die Abkürzung MMX bedeutete, dass dieser Prozessor für die Arbeit mit Grafik- und Videoinformationen optimiert war. 1998 kündigte Intel die Veröffentlichung des Celeron-Prozessors mit einer Taktfrequenz von 266 MHz an.

Seit 1998 hat Intel eine Version des Pentium® II Heop™-Prozessors mit einer Taktfrequenz von 450 MHz angekündigt (Tabelle 1.4).

Tabelle 1.4. IBM-Computer

Computer

CPU

Taktfrequenz, MHz

betriebsbereit

Lange Zeit erhöhten Prozessorhersteller – vor allem Intel und AMD – ihre Taktfrequenz, um die Prozessorleistung zu verbessern. Bei Taktfrequenzen über 3,8 GHz überhitzen die Chips jedoch und man kann die Vorteile vergessen. Neue Ideen und Technologien waren erforderlich, eine davon war die Idee des Schaffens Multi-Core-Chips. In einem solchen Chip arbeiten zwei oder mehr Prozessoren parallel, die eine höhere Leistung bei niedrigerer Taktfrequenz bieten. Das aktuell laufende Programm teilt die Datenverarbeitungsaufgaben auf beide Kerne auf. Dies ist am effektivsten, wenn sowohl das Betriebssystem als auch die Anwendungsprogramme für den parallelen Betrieb konzipiert sind, beispielsweise für die Grafikverarbeitung.

Die Multi-Core-Architektur ist eine Variante der Prozessorarchitektur, die zwei oder mehr „Ausführungs“- oder Rechenkerne des Pentium® auf einem einzigen Prozessor platziert. Ein Mehrkernprozessor wird in den Prozessorsockel eingesetzt, aber das Betriebssystem behandelt jeden seiner Ausführungskerne als separaten logischen Prozessor mit allen entsprechenden Ausführungsressourcen (Abbildung 1.13).

Diese Umsetzung der internen Prozessorarchitektur basiert auf der „Teile und herrsche“-Strategie. Mit anderen Worten, Abschnitt


Reis. 1.13.

Durch die Aufteilung der in herkömmlichen Mikroprozessoren von einem einzelnen Pentium-Kern geleisteten Rechenarbeit auf mehrere Pentium-Ausführungskerne kann ein Mehrkernprozessor in einem bestimmten Zeitintervall mehr Arbeit leisten. Dazu muss die Software eine Lastverteilung zwischen mehreren Ausführungskernen unterstützen. Diese Funktionalität wird aufgerufen Parallelität auf Thread-Ebene oder die Organisation der Thread-Verarbeitung sowie die Anwendungen und Betriebssysteme, die sie unterstützen (z. B. Microsoft Windows XP), werden als Multithreaded bezeichnet.

Multicore wirkt sich auch auf den gleichzeitigen Betrieb von Standardanwendungen aus. Beispielsweise kann ein Prozessorkern für ein im Hintergrund laufendes Programm verantwortlich sein, während ein Antivirenprogramm die Ressourcen des zweiten Kerns beansprucht. In der Praxis führen Dual-Core-Prozessoren Berechnungen nicht doppelt so schnell durch wie Single-Core-Prozessoren: Der Leistungsgewinn ist zwar erheblich, hängt jedoch von der Art der Anwendung ab.

Die ersten Dual-Core-Prozessoren kamen 2005 auf den Markt. Im Laufe der Zeit erschienen immer mehr Nachfolger. Daher sind „alte“ Dual-Core-Prozessoren heute stark im Preis gefallen. Sie sind in Computern ab 600 US-Dollar und in Laptops ab 900 US-Dollar zu finden. Computer mit modernen Dual-Core-Chips kosten rund 100 US-Dollar mehr als Modelle mit „älteren“ Chips. Einer der Hauptentwickler von Multicore-Prozessoren ist die Intel Corporation.

Vor dem Aufkommen von Dual-Core-Chips boten Hersteller Single-Core-Prozessoren mit der Möglichkeit an, mehrere Programme parallel auszuführen. Einige Prozessoren der Pentium 4-Serie verfügten über eine Hyper-Threading-Funktion, die einen Bytewert zurückgab, der die logischen und physischen Kennungen des aktuellen Prozesses enthielt. Sie kann als Vorgänger der Dual-Core-Architektur angesehen werden, bestehend aus zwei optimierten mobilen Ausführungskernen. Dual-Core bedeutet, dass, während ein Kern damit beschäftigt ist, eine Anwendung auszuführen oder beispielsweise auf Virenaktivität zu prüfen, der andere Kern für andere Aufgaben zur Verfügung steht, beispielsweise kann der Benutzer im Internet surfen oder damit arbeiten eine Kalkulationstabelle. Obwohl der Prozessor über einen physischen Kern verfügte, war der Chip so konzipiert, dass er zwei Programme gleichzeitig ausführen konnte (Abbildung 1.14).

Schalttafel

QNX Neutrino RTOS (eine Kopie)

Befehlszeilenschnittstelle (Kernel 0 und 1)

Routing (Kerne 0 und 1)

Management, Administration und Wartung (Kerne 0 und 1)

Dashboard-Hardware

Dashboard-Überwachung (Kerne 0 und 1)

Reis. 1.14. Schema zur Verwendung von Multiprocessing

im Bedienfeld

Das Betriebssystem erkennt einen solchen Chip als zwei separate Prozessoren. Herkömmliche Prozessoren verarbeiten 32 Bit pro Taktzyklus. Die neuesten Chips schaffen es, doppelt so viele Daten in einem Taktzyklus zu verarbeiten, also 64 Bit. Dieser Vorteil macht sich insbesondere bei der Verarbeitung großer Datenmengen bemerkbar (z. B. bei der Bearbeitung von Fotos). Um es nutzen zu können, müssen das Betriebssystem und die Anwendungen jedoch den 64-Bit-Verarbeitungsmodus unterstützen.

Unter speziell entwickelten 64-Bit-Versionen von Windows XP und Windows Vista werden je nach Bedarf 32- und 64-Bit-Programme gestartet.

Die rasante Entwicklung des Digital Computing (CT) und die Entstehung einer Wissenschaft über die Prinzipien seiner Konstruktion und seines Designs begannen in den 40er Jahren des 20. Jahrhunderts, als Elektronik und Mikroelektronik zur technischen Grundlage der CT und Errungenschaften auf dem Gebiet der Computer wurden wurde zur Grundlage für die Entwicklung der Computerarchitektur (früher Computer genannt). Künstliche Intelligenz.

Bis zu diesem Zeitpunkt war VT fast 500 Jahre lang auf die einfachsten Geräte zur Durchführung arithmetischer Operationen mit Zahlen reduziert. Die Grundlage fast aller im Laufe von 5 Jahrhunderten erfundenen Geräte war ein Zahnrad, das dazu bestimmt war, 10 Ziffern des Dezimalzahlensystems festzulegen. Der weltweit erste Entwurf eines auf solchen Rädern basierenden 13-Bit-Dezimaladdiergeräts stammt von Leonardo da Vinci.

Das erste tatsächlich implementierte mechanische digitale Rechengerät war die „Pascalina“ des großen französischen Wissenschaftlers Blaise Pascal, ein 6- (oder 8-stelliges) Gerät mit Zahnrädern zum Addieren und Subtrahieren von Dezimalzahlen (1642).

30 Jahre nach Pascalina erschien 1673 das „Recheninstrument“ von Gottfried Wilhelm Leibniz – ein zwölfstelliges Dezimalgerät zur Durchführung arithmetischer Operationen, einschließlich Multiplikation und Division.

Ende des 18. Jahrhunderts ereigneten sich in Frankreich zwei Ereignisse, die für die Weiterentwicklung der digitalen Rechentechnik von grundlegender Bedeutung waren. Zu diesen Veranstaltungen gehören:

 Joseph Jacquards Erfindung der programmatischen Steuerung einer Webmaschine mithilfe von Lochkarten;

 Entwicklung einer Computertechnologie durch Gaspard de Prony, die numerische Berechnungen in drei Phasen unterteilt: Entwicklung einer numerischen Methode, Zusammenstellung eines Programms für eine Folge arithmetischer Operationen, Durchführung der eigentlichen Berechnungen durch arithmetische Operationen an Zahlen gemäß den zusammengestellten Programm.

Diese Innovationen wurden später vom Engländer Charles Babbage genutzt, der einen qualitativ neuen Schritt in der Entwicklung von VT-Mitteln machte – Übergang von der manuellen zur automatischen Ausführung von Berechnungen nach einem kompilierten Programm. Er entwickelte ein Projekt für die Analytical Engine – einen mechanischen universellen Digitalcomputer mit Programmsteuerung (1830–1846). Die Maschine bestand aus fünf Geräten: Arithmetik (AU); Speicherung (Speicher); Management (UU); Eingang (UVV); Leistung (UW).

Diese Geräte bildeten die ersten Computer, die 100 Jahre später auf den Markt kamen. Die Steuereinheit wurde auf Basis von Zahnrädern aufgebaut und es wurde vorgeschlagen, darauf einen Speicher (für Tausende von 50-Bit-Zahlen) zu implementieren. Zur Eingabe von Daten und Programmen dienten Lochkarten. Die geschätzte Rechengeschwindigkeit beträgt Addition und Subtraktion in 1 Sekunde, Multiplikation und Division in 1 Minute. Neben arithmetischen Operationen gab es einen bedingten Sprungbefehl.

Es ist zu beachten, dass zwar einzelne Komponenten der Maschine erstellt wurden, die gesamte Maschine jedoch aufgrund ihrer Sperrigkeit nicht erstellt werden konnte. Allein dafür wären mehr als 50.000 Zahnräder erforderlich. Der Erfinder plante, seine Analysemaschine mit einer Dampfmaschine anzutreiben.

Im Jahr 1870 (ein Jahr vor Babbages Tod) entwarf der englische Mathematiker Jevons die weltweit erste „logische Maschine“, die es ermöglichte, die einfachsten logischen Schlussfolgerungen zu mechanisieren.

Die Schöpfer logischer Maschinen im vorrevolutionären Russland waren Pavel Dmitrievich Chruschtschow (1849–1909) und Alexander Nikolaevich Shchukarev (1884–1936), die in Bildungseinrichtungen in der Ukraine arbeiteten.

Babbages brillante Idee wurde von dem amerikanischen Wissenschaftler Howard Aiken verwirklicht, der 1944 den ersten relaismechanischen Computer in den Vereinigten Staaten entwickelte. Seine Hauptblöcke – Rechnen und Gedächtnis – wurden auf Zahnrädern ausgeführt. Wenn Babbage seiner Zeit weit voraus war, dann nutzte Aiken mit den gleichen Mitteln technisch veraltete Lösungen, um Babbages Idee umzusetzen.

Es sei darauf hingewiesen, dass der deutsche Student Konrad Zuse zehn Jahre zuvor, im Jahr 1934, während seiner Abschlussarbeit beschloss, einen digitalen Computer mit Programmsteuerung zu bauen. Diese Maschine war die erste auf der Welt, die das binäre Zahlensystem verwendete. 1937 führte die Z1-Maschine ihre ersten Berechnungen durch. Es handelte sich um eine binäre 22-Bit-Gleitkommazahl mit einem Speicher von 64 Zahlen und funktionierte auf rein mechanischer (Hebel-)Basis.

Im selben Jahr 1937, als die weltweit erste mechanische Binärmaschine Z1 ihren Betrieb aufnahm, begann John Atanasov (ein gebürtiger Bulgare, der in den USA lebte) mit der Entwicklung eines Spezialcomputers, der zum ersten Mal auf der Welt Vakuumröhren (300 Röhren) verwendete.

In den Jahren 1942-43 wurde in England (unter Beteiligung von Alan Turing) der Colossus-Computer entwickelt. Diese aus 2000 Vakuumröhren bestehende Maschine sollte Funksprüche der deutschen Wehrmacht entschlüsseln. Da die Werke von Zuse und Turing geheim waren, wussten damals nur wenige von ihnen und sie erregten weltweit keine Resonanz.

Erst 1946 erschienen Informationen über den ENIAC-Computer (Electronic Digital Integrator and Computer), der in den USA von D. Mauchly und P. Eckert unter Verwendung elektronischer Technologie entwickelt wurde. Die Maschine verwendete 18.000 Vakuumröhren und führte etwa 3.000 Operationen pro Sekunde durch. Die Maschine blieb jedoch dezimal und ihr Speicher umfasste nur 20 Wörter. Programme wurden außerhalb des RAM gespeichert.

Fast gleichzeitig, 1949-52. Wissenschaftler aus England, der Sowjetunion und den USA (Maurice Wilkes, EDSAC-Computer, 1949; Sergei Lebedev, MESM-Computer, 1951; Isaac Brook, M1-Computer, 1952; John Mauchly und Presper Eckert, John von Neumann-Computer „ADVAK“, 1952 ), erstellte einen Computer mit einem gespeicherten Programm.

Im Allgemeinen gibt es solche fünf Generationen COMPUTER.

Erste Generation (1945-1954). ) geprägt durch das Aufkommen der elektronischen Röhrentechnik. Dies ist die Ära des Aufkommens der Computertechnologie. Die meisten Maschinen der ersten Generation waren Versuchsgeräte und wurden gebaut, um bestimmte theoretische Prinzipien zu testen. Das Gewicht und die Größe dieser Computer erforderten oft separate Gebäude.

Als Begründer der Informatik gelten zu Recht Claude Shannon, der Begründer der Informationstheorie, Alan Turing, ein Mathematiker, der die Theorie der Programme und Algorithmen entwickelte, und John von Neumann, der Autor des Designs von Computergeräten, das noch heute zugrunde liegt die meisten Computer. In denselben Jahren entstand eine weitere neue Wissenschaft im Zusammenhang mit der Informatik – die Kybernetik – die Wissenschaft vom Management als einem der wichtigsten Informationsprozesse. Der Begründer der Kybernetik ist der amerikanische Mathematiker Norbert Wiener.

In der zweiten Generation (1955-1964) Anstelle von Vakuumröhren wurden Transistoren verwendet, und als Speichergeräte wurden Magnetkerne und Magnettrommeln – entfernte Vorfahren moderner Festplatten – verwendet. All dies ermöglichte eine deutliche Reduzierung der Größe und der Kosten von Computern, die dann erstmals für den Verkauf gebaut wurden.

Die wichtigsten Errungenschaften dieser Ära liegen jedoch im Bereich der Programme. In der zweiten Generation erschien erstmals das, was man heute Betriebssystem nennt. Gleichzeitig wurden die ersten Hochsprachen entwickelt – Fortran, Algol, Cobol. Diese beiden wichtigen Verbesserungen machten das Schreiben von Computerprogrammen viel einfacher und schneller.

Gleichzeitig erweiterte sich der Umfang der Computeranwendungen. Nun konnten nicht mehr nur Wissenschaftler auf den Zugang zur Computertechnologie zählen, da Computer in der Planung und im Management eingesetzt wurden und einige große Unternehmen sogar damit begannen, ihre Buchhaltung zu computerisieren, was diesen Prozess um zwanzig Jahre vorwegnahm.

IN dritte Generation (1965-1974) Zum ersten Mal wurden integrierte Schaltkreise verwendet – ganze Geräte und Baugruppen aus Dutzenden und Hunderten von Transistoren, die auf einem einzigen Halbleiterkristall (Mikroschaltungen) hergestellt wurden. Gleichzeitig erschien der Halbleiterspeicher, der noch heute in Personalcomputern als Arbeitsspeicher verwendet wird.

In diesen Jahren erreichte die Computerproduktion einen industriellen Maßstab. IBM war das erste Unternehmen, das eine Reihe von Computern verkaufte, die vollständig miteinander kompatibel waren, vom kleinsten Modell in der Größe eines kleinen Schranks (damals gab es noch nie etwas Kleineres) bis hin zu den leistungsstärksten und teuersten Modellen. Am weitesten verbreitet war in diesen Jahren die System/360-Familie von IBM, auf deren Grundlage in der UdSSR die Computerserie ES entwickelt wurde. Bereits in den frühen 60er Jahren kamen die ersten Minicomputer auf den Markt – kleine Computer mit geringem Stromverbrauch, die für kleine Firmen oder Labore erschwinglich waren. Minicomputer stellten den ersten Schritt zu Personalcomputern dar, von denen Prototypen erst Mitte der 70er Jahre auf den Markt kamen.

Mittlerweile wuchs die Zahl der Elemente und Verbindungen zwischen ihnen, die in einen Mikroschaltkreis passen, ständig, und in den 70er Jahren enthielten integrierte Schaltkreise bereits Tausende von Transistoren.

1971 brachte Intel den ersten Mikroprozessor auf den Markt, der für gerade erschienene Tischrechner gedacht war. Diese Erfindung sollte im nächsten Jahrzehnt eine echte Revolution auslösen. Der Mikroprozessor ist die Hauptkomponente eines modernen Personalcomputers.

An der Wende der 60er und 70er Jahre des 20. Jahrhunderts (1969) wurde das erste globale Computernetzwerk ARPA, der Prototyp des modernen Internets, geboren. Im selben Jahr 1969 erschienen gleichzeitig das Betriebssystem Unix und die Programmiersprache C, die einen enormen Einfluss auf die Softwarewelt hatten und bis heute ihre führende Position behaupten.

Vierte Generation (1975 – 1985) gekennzeichnet durch immer weniger grundlegende Innovationen in der Informatik. Der Fortschritt erfolgt hauptsächlich auf dem Weg der Weiterentwicklung bereits Erfundener und Erdachter, vor allem durch Leistungssteigerung und Miniaturisierung der Elementbasis und der Computer selbst.

Die wichtigste Innovation der vierten Generation ist das Aufkommen von Personalcomputern Anfang der 80er Jahre. Dank Personalcomputern wird die Computertechnologie wirklich weit verbreitet und für jedermann zugänglich. Obwohl Personal- und Minicomputer hinsichtlich der Rechenleistung immer noch hinter großen Maschinen zurückbleiben, ist der Löwenanteil der Innovationen wie grafische Benutzeroberflächen, neue Peripheriegeräte und globale Netzwerke mit der Entstehung und Entwicklung dieser besonderen Technologie verbunden.

Große Computer und Supercomputer entwickeln sich natürlich weiter. Doch mittlerweile dominieren sie die Computerwelt nicht mehr wie früher.

Einige Merkmale der Computertechnologie von vier Generationen sind in der Tabelle aufgeführt. 1.1.

Tabelle 1.1

Generationen von Computern

Generation

Hauptelement

Email Lampe

Transistor

Integrierter Schaltkreis

Großer integrierter Schaltkreis (Mikroprozessor)

Anzahl der Computer

in der Welt (Stücke)

Zehntausende

Millionen

Computerabmessungen

Deutlich weniger

Mikrocomputer

Leistung (bedingter) Vorgänge/Sek

Mehrere Einheiten

Ein paar Dutzend

Mehrere tausend

Mehrere Zehntausend

Speichermedium

Karte,

Lochstreifen

Magnetisch

Fünfte Generation (1986 bis heute) wird weitgehend durch die Ergebnisse der 1981 veröffentlichten Arbeit des japanischen Komitees für wissenschaftliche Forschung auf dem Gebiet der Computer bestimmt. Nach diesem Projekt müssen Computer und Rechensysteme der fünften Generation neben hoher Leistung und Zuverlässigkeit bei geringeren Kosten unter Einsatz neuester Technologien folgende qualitativ neue Funktionsanforderungen erfüllen:

 Gewährleistung der Benutzerfreundlichkeit von Computern durch Implementierung von Spracheingabe-/-ausgabesystemen sowie interaktiver Informationsverarbeitung mithilfe natürlicher Sprachen;

 die Möglichkeit des Lernens, assoziativer Konstruktionen und logischer Schlussfolgerungen bieten;

 den Prozess der Softwareerstellung vereinfachen, indem die Synthese von Programmen gemäß den Spezifikationen der ursprünglichen Anforderungen in natürlichen Sprachen automatisiert wird;

 Verbesserung der grundlegenden Eigenschaften und Leistungsqualitäten der Computertechnologie, um verschiedene soziale Probleme zu lösen, Verbesserung des Kosten-Nutzen-Verhältnisses, der Geschwindigkeit, des geringen Gewichts und der Kompaktheit von Computern;

 Bereitstellung einer Vielzahl von Computergeräten, hoher Anpassungsfähigkeit an Anwendungen und Zuverlässigkeit im Betrieb.

Derzeit wird intensiv daran gearbeitet, optoelektronische Computer mit massiver Parallelität und neuronaler Struktur zu schaffen, bei denen es sich um ein verteiltes Netzwerk einer großen Anzahl (Zehntausende) einfacher Mikroprozessoren handelt, die die Architektur neuronaler biologischer Systeme modellieren

Computergeräte und Geräte von der Antike bis zur Gegenwart

Die Hauptstadien in der Entwicklung der Computertechnologie sind: manuell – bis zum 17. Jahrhundert, mechanisch – ab Mitte des 17. Jahrhunderts, elektromechanisch – ab den 90er Jahren des 19. Jahrhunderts, elektronisch – ab den 40er Jahren des 20. Jahrhunderts.

Die manuelle Periode begann mit dem Beginn der menschlichen Zivilisation.

Bei jeder Tätigkeit hat der Mensch seit jeher verschiedenste Mittel, Geräte und Werkzeuge erfunden und geschaffen, um seine Fähigkeiten zu erweitern und die Arbeit zu erleichtern.

Mit der Entwicklung des Handels entstand die Notwendigkeit eines Kontos. Vor vielen Jahrhunderten begannen die Menschen, zur Durchführung verschiedener Berechnungen zunächst ihre eigenen Finger, dann Kieselsteine, Stöcke, Knoten usw. zu verwenden. Aber mit der Zeit wurden die Aufgaben, vor denen er stand, immer komplizierter und es wurde notwendig, Wege zu finden und Geräte zu erfinden, die ihm bei der Lösung dieser Probleme helfen könnten.

Eines der ersten Geräte (5. Jahrhundert v. Chr.), das Berechnungen erleichterte, war ein spezielles Brett, später Abakus (von griechisch „Zählbrett“) genannt. Berechnungen dazu wurden durch Bewegen von Knochen oder Kieselsteinen in den Aussparungen von Brettern aus Bronze, Stein, Elfenbein usw. durchgeführt. In Griechenland existierte der Abakus bereits im 5. Jahrhundert v. Chr. e. Eine Rille entsprach Einerstelle, die andere Zehnerstelle usw. Wenn in einer Rille beim Zählen mehr als 10 Kieselsteine ​​gesammelt wurden, wurden diese entfernt und ein Kieselstein zur nächsten Ziffer hinzugefügt. Die Römer verbesserten den Abakus und gingen von Rillen und Kieselsteinen zu Marmorbrettern mit gemeißelten Rillen und Marmorkugeln über. Mit seiner Hilfe war es möglich, die einfachsten mathematischen Operationen der Addition und Subtraktion durchzuführen.

Die chinesische Abakusart – Suanpan – erschien im 6. Jahrhundert n. Chr.; Soroban ist ein japanischer Abakus, abgeleitet vom chinesischen Suanpan, der im 15.-16. Jahrhundert nach Japan gebracht wurde. XVI Jahrhundert - Es entsteht ein russischer Abakus mit dezimalem Zahlensystem. Sie haben im Laufe der Jahrhunderte erhebliche Veränderungen erfahren, werden aber bis in die 80er Jahre des 20. Jahrhunderts weiterhin verwendet.

Zu Beginn des 17. Jahrhunderts führte der schottische Mathematiker J. Napier den Logarithmus ein, der einen revolutionären Einfluss auf das Zählen hatte. Der von ihm erfundene Rechenschieber wurde vor fünfzehn Jahren erfolgreich eingesetzt und diente Ingenieuren mehr als 360 Jahre lang. Es ist zweifellos die Krönung der manuellen Rechenwerkzeuge der Automatisierungsperiode.

Die Entwicklung der Mechanik im 17. Jahrhundert wurde zur Voraussetzung für die Entwicklung von Rechengeräten und -instrumenten mit der mechanischen Berechnungsmethode. Unter den mechanischen Geräten gibt es Addiermaschinen (sie können addieren und subtrahieren), ein Multiplikationsgerät (sie multiplizieren und dividieren), im Laufe der Zeit wurden sie zu einem zusammengefasst – einer Addiermaschine (sie können alle 4 Rechenoperationen ausführen).

In den Tagebüchern des brillanten Italieners Leonardo da Vinci (1452-1519) wurden bereits in unserer Zeit eine Reihe von Zeichnungen entdeckt, die sich als Skizze eines Summierrechners auf Zahnrädern entpuppten, der 13-Bit-Dezimalzahlen addieren konnte . In jenen fernen Jahren war der brillante Wissenschaftler wahrscheinlich der einzige Mensch auf der Erde, der die Notwendigkeit verstand, Geräte zu entwickeln, die die Arbeit bei der Durchführung von Berechnungen erleichtern. Der Bedarf dafür war jedoch so gering (oder besser gesagt, er bestand überhaupt nicht!), dass erst mehr als hundert Jahre nach dem Tod von Leonardo da Vinci ein anderer Europäer gefunden wurde – der deutsche Wissenschaftler Wilhelm Schickard (1592-1636). ), der natürlich die Tagebücher des großen Italieners nicht las – der seine Lösung für dieses Problem vorschlug. Der Anlass, der Schiccard dazu veranlasste, eine Rechenmaschine zum Summieren und Multiplizieren sechsstelliger Dezimalzahlen zu entwickeln, war seine Bekanntschaft mit dem polnischen Astronomen J. Kepler. Nachdem Schickard die Arbeit des großen Astronomen kennengelernt hatte, die hauptsächlich mit Berechnungen zu tun hatte, kam ihm die Idee, ihm bei seiner schwierigen Arbeit zu helfen. In einem an ihn gerichteten Brief aus dem Jahr 1623 gibt er eine Zeichnung der Maschine und erklärt, wie sie funktioniert.

Eines der ersten Beispiele für solche Mechanismen war die „Zähluhr“ des deutschen Mathematikers Wilhelm Schickard. Im Jahr 1623 entwickelte er eine Maschine, die zur ersten automatischen Rechenmaschine wurde. Schickards Maschine konnte sechsstellige Zahlen addieren und subtrahieren und klingelte, wenn sie voll war. Leider hat die Geschichte keine Informationen über das weitere Schicksal des Autos erhalten.

Die Erfindungen von Leonardo da Vinci und Wilhelm Schiccard wurden erst in unserer Zeit bekannt. Sie waren ihren Zeitgenossen unbekannt.

Der berühmteste der ersten Computer war die Summiermaschine von Blaise Pascal, der 1642 das Pascalina-Modell baute – Addiermaschine für achtstellige Zahlen. B. Pascal begann im Alter von 19 Jahren mit der Kreation von Pascalina und beobachtete dabei die Arbeit seines Vaters, der Steuereintreiber war und oft lange und langwierige Berechnungen durchführen musste. Und sein einziges Ziel war es, ihm bei seiner Arbeit zu helfen.

Im Jahr 1673 entwickelte der deutsche Mathematiker Leibniz das erste Arithmometer, mit dem er alle vier Rechenoperationen durchführen konnte. „...Meine Maschine ermöglicht es, Multiplikationen und Divisionen über große Zahlen sofort durchzuführen, ohne auf sequentielle Addition und Subtraktion zurückgreifen zu müssen“, schrieb V. Leibniz an einen seiner Freunde. Die Maschine von Leibniz war in den meisten europäischen Ländern bekannt.

Das Berechnungsprinzip erwies sich als erfolgreich; anschließend wurde das Modell in verschiedenen Ländern von verschiedenen Wissenschaftlern immer wieder verfeinert.

Und ab 1881 wurde die Serienproduktion von Addiermaschinen organisiert, die bis in die sechziger Jahre des 20. Jahrhunderts für praktische Berechnungen eingesetzt wurden.

Das bekannteste Serienmodell war die in Russland hergestellte Felix-Addiermaschine, die ihren Namen im Jahr 1900 erhielt. auf der internationalen Ausstellung in Paris eine Goldmedaille.

In die mechanische Periode fallen auch die theoretischen Entwicklungen der Analysemaschinen von Babidge, die aus Geldmangel nicht umgesetzt wurden. Die theoretischen Entwicklungen reichen bis in die Jahre 1920-1971 zurück. Die Analytical Engine sollte die erste Maschine sein, die das Prinzip der Programmsteuerung nutzte und beliebige Algorithmen berechnen konnte, Input-Output wurde über Lochkarten geplant, sie sollte auf einer Dampfmaschine funktionieren. Die Analysemaschine bestand aus den folgenden vier Hauptteilen: einer Speichereinheit für Anfangs-, Zwischen- und Ergebnisdaten (Lager – Speicher); Datenverarbeitungseinheit (Mühle - Rechengerät); Berechnungssequenz-Steuergerät (Steuergerät); Block zur Eingabe erster Daten und Druckergebnisse (Ein-/Ausgabegeräte), der später als Prototyp für den Aufbau aller modernen Computer diente. Lady Ada Lovelace (Tochter des englischen Dichters George Byron) arbeitete gleichzeitig mit dem englischen Wissenschaftler. Sie entwickelte die ersten Programme für die Maschine, legte viele Ideen fest und führte eine Reihe von Konzepten und Begriffen ein, die bis heute erhalten sind. Gräfin Lovelace gilt als die erste Computerprogrammiererin und die Programmiersprache ADA ist nach ihr benannt. Obwohl das Projekt nicht umgesetzt wurde, war es weithin bekannt und wurde von Wissenschaftlern hoch geschätzt. Charles Babidge war seiner Zeit ein Jahrhundert voraus.

Fortsetzung folgt…

Zu allen Zeiten, seit der Antike, mussten die Menschen zählen. Zum Zählen benutzten sie zunächst ihre eigenen Finger oder Kieselsteine. Allerdings sind selbst einfache Rechenoperationen mit großen Zahlen für das menschliche Gehirn schwierig. Daher wurde bereits in der Antike das einfachste Zählinstrument erfunden – der Abakus, der vor mehr als 15 Jahrhunderten in den Mittelmeerländern erfunden wurde. Dieser Prototyp moderner Rechnungen bestand aus auf Stäben aufgereihten Dominosteinen und wurde von Kaufleuten verwendet.

Die Abakusstäbe stellen im arithmetischen Sinne Nachkommastellen dar. Jeder Dominostein auf der ersten Stange hat einen Wert von 1, auf der zweiten Stange - 10, auf der dritten Stange - 100 usw. Bis ins 17. Jahrhundert blieb der Abakus praktisch das einzige Zählinstrument.

In Russland erschien im 16. Jahrhundert der sogenannte russische Abakus. Sie basieren auf dem dezimalen Zahlensystem und ermöglichen die schnelle Durchführung arithmetischer Operationen (Abb. 6).

Reis. 6. Abakus

Im Jahr 1614 erfand der Mathematiker John Napier den Logarithmus.

Ein Logarithmus ist ein Exponent, auf den eine Zahl erhöht werden muss (die Basis des Logarithmus), um eine andere gegebene Zahl zu erhalten. Napiers Entdeckung bestand darin, dass jede Zahl auf diese Weise ausgedrückt werden kann und dass die Summe der Logarithmen zweier beliebiger Zahlen gleich dem Logarithmus des Produkts dieser Zahlen ist. Dies ermöglichte es, die Multiplikation auf die einfachere Addition zu reduzieren. Napier erstellte Logarithmentabellen. Um zwei Zahlen zu multiplizieren, müssen Sie sich ihre Logarithmen in dieser Tabelle ansehen, sie addieren und in der Umkehrtabelle die Zahl finden, die dieser Summe entspricht – Antilogarithmen. Basierend auf diesen Tabellen entwickelten 1654 R. Bissacar und 1657 unabhängig davon S. Partridge einen rechteckigen Rechenschieber: das wichtigste Rechengerät des Ingenieurs bis zur Mitte des 20. Jahrhunderts (Abb. 7).

Reis. 7. Rechenschieber

Im Jahr 1642 erfand Blaise Pascal eine mechanische Rechenmaschine mit dem Dezimalzahlensystem. Jede Dezimalstelle wurde durch ein Rad mit zehn Zähnen dargestellt, das Zahlen von 0 bis 9 anzeigte. Insgesamt gab es 8 Räder, das heißt, Pascals Maschine war 8-Bit.

Beim digitalen Rechnen gewann jedoch nicht das dezimale Zahlensystem, sondern das binäre Zahlensystem. Der Hauptgrund dafür ist, dass es in der Natur viele Phänomene mit zwei stabilen Zuständen gibt, zum Beispiel „an/aus“, „es liegt Spannung an/keine Spannung“, „falsche Aussage/wahre Aussage“, aber es gibt keine Phänomene mit zehn stabile Staaten. Warum ist das Dezimalsystem so weit verbreitet? Ja, einfach weil eine Person zehn Finger an zwei Händen hat und diese bequem zum einfachen mentalen Zählen verwendet werden können. Beim elektronischen Rechnen ist es jedoch viel einfacher, ein binäres Zahlensystem mit nur zwei stabilen Elementzuständen und einfachen Additions- und Multiplikationstabellen zu verwenden. In modernen digitalen Rechenmaschinen – Computern – wird das Binärsystem nicht nur zur Aufzeichnung von Zahlen verwendet, mit denen Rechenoperationen durchgeführt werden müssen, sondern auch zur Aufzeichnung der Befehle selbst für diese Berechnungen und sogar ganzer Operationsprogramme. In diesem Fall werden alle Berechnungen und Operationen in einem Computer auf einfachste arithmetische Operationen mit Binärzahlen reduziert.



Einer der ersten, der sich für das Binärsystem interessierte, war der große deutsche Mathematiker Gottfried Leibniz. 1666, im Alter von zwanzig Jahren, entwickelte er in seinem Werk „Über die Kunst der Kombinatorik“ eine allgemeine Methode, die es erlaubt, jeden Gedanken auf präzise formale Aussagen zu reduzieren. Dies eröffnete die Möglichkeit, die Logik (Leibniz nannte sie die Gesetze des Denkens) aus dem Bereich der Wörter auf den Bereich der Mathematik zu übertragen, wo die Beziehungen zwischen Objekten und Aussagen präzise und eindeutig definiert sind. Somit war Leibniz der Begründer der formalen Logik. Er erforschte das binäre Zahlensystem. Gleichzeitig verlieh Leibniz ihm eine gewisse mystische Bedeutung: Er verband die Zahl 1 mit Gott und 0 mit Leere. Aus diesen beiden Figuren ist seiner Meinung nach alles passiert. Und mit Hilfe dieser beiden Zahlen können Sie jedes mathematische Konzept ausdrücken. Leibniz war der erste, der vorschlug, dass das Binärsystem eine universelle logische Sprache werden könnte.

Leibniz träumte vom Aufbau einer „universellen Wissenschaft“. Er wollte die einfachsten Konzepte hervorheben, mit deren Hilfe nach bestimmten Regeln Konzepte beliebiger Komplexität formuliert werden können. Er träumte davon, eine universelle Sprache zu schaffen, in der alle Gedanken in Form mathematischer Formeln niedergeschrieben werden könnten. Ich dachte an eine Maschine, die aus Axiomen Theoreme ableiten und logische Aussagen in arithmetische umwandeln könnte. Im Jahr 1673 entwickelte er eine neuartige Addiermaschine – einen mechanischen Rechner, der nicht nur Zahlen addiert und subtrahiert, sondern auch multipliziert, dividiert, potenziert und Quadrat- und Kubikwurzeln zieht. Es wurde das binäre Zahlensystem verwendet.

Die universelle logische Sprache wurde 1847 vom englischen Mathematiker George Boole geschaffen. Er entwickelte die Aussagenrechnung, die ihm zu Ehren später den Namen Boolesche Algebra erhielt. Es stellt formale Logik dar, übersetzt in die strenge Sprache der Mathematik. Die Formeln der Booleschen Algebra ähneln im Aussehen den Formeln der Algebra, die wir aus der Schule kennen. Diese Ähnlichkeit ist jedoch nicht nur äußerlich, sondern auch innerlich. Die Boolesche Algebra ist eine völlig gleichwertige Algebra, die den bei ihrer Erstellung angenommenen Gesetzen und Regeln unterliegt. Es handelt sich um ein Notationssystem, das auf beliebige Objekte anwendbar ist – Zahlen, Buchstaben und Sätze. Mit diesem System können Sie alle Aussagen kodieren, die als wahr oder falsch bewiesen werden müssen, und sie dann wie gewöhnliche Zahlen in der Mathematik manipulieren.

George Boole (1815–1864) – englischer Mathematiker und Logiker, einer der Begründer der mathematischen Logik. Entwickelte die Algebra der Logik (in den Werken „Mathematische Analyse der Logik“ (1847) und „Studie der Gesetze des Denkens“ (1854)).

Der amerikanische Mathematiker Charles Peirce spielte eine große Rolle bei der Verbreitung der Booleschen Algebra und ihrer Entwicklung.

Charles Pierce (1839–1914) war ein amerikanischer Philosoph, Logiker, Mathematiker und Naturwissenschaftler, der für seine Arbeiten zur mathematischen Logik bekannt war.

Gegenstand der Betrachtung in der Algebra der Logik sind die sogenannten Aussagen, d.h. alle Aussagen, die als wahr oder falsch gelten können: „Omsk ist eine Stadt in Russland“, „15 ist eine gerade Zahl.“ Die erste Aussage ist wahr, die zweite ist falsch.

Komplexe Aussagen, die aus einfachen Aussagen mithilfe der Konjunktionen AND, OR, IF...THEN und Negationen NOT gewonnen werden, können ebenfalls wahr oder falsch sein. Ihre Wahrheit hängt nur von der Wahrheit oder Falschheit der einfachen Aussagen ab, aus denen sie bestehen, zum Beispiel: „Wenn es draußen nicht regnet, können Sie spazieren gehen.“ Die Hauptaufgabe der Booleschen Algebra besteht darin, diese Abhängigkeit zu untersuchen. Berücksichtigt werden logische Operationen, mit denen Sie aus einfachen komplexen Aussagen konstruieren können: Negation (NOT), Konjunktion (AND), Disjunktion (OR) und andere.

Im Jahr 1804 erfand J. Jacquard eine Webmaschine zur Herstellung von Stoffen mit großen Mustern. Dieses Muster wurde mit einem ganzen Stapel Lochkarten programmiert – rechteckige Karten aus Pappe. Auf ihnen wurden Informationen über das Muster aufgezeichnet, indem in einer bestimmten Reihenfolge Löcher (Perforationen) gestanzt wurden. Beim Betrieb der Maschine wurden diese Lochkarten mit speziellen Stiften abgetastet. Auf diese mechanische Weise wurden Informationen aus ihnen gelesen, um ein programmiertes Stoffmuster zu weben. Die Jacquard-Maschine war der Prototyp computergesteuerter Maschinen des 20. Jahrhunderts.

Im Jahr 1820 entwickelte Thomas de Colmar die erste kommerzielle Addiermaschine, die multiplizieren und dividieren konnte. Seit dem 19. Jahrhundert haben Addiermaschinen bei der Durchführung komplexer Berechnungen eine weite Verbreitung gefunden.

Im Jahr 1830 versuchte Charles Babbage, eine universelle Analysemaschine zu entwickeln, die Berechnungen ohne menschliches Eingreifen durchführen sollte. Zu diesem Zweck wurden darin Programme eingeführt, die auf Lochkarten aus dickem Papier vorab aufgezeichnet wurden, indem in einer bestimmten Reihenfolge Löcher darauf angebracht wurden (das Wort „Perforation“ bedeutet „Löcher in Papier oder Pappe stanzen“). Die Programmierprinzipien für Babbages Analytical Engine wurden 1843 von Ada Lovelace, der Tochter des Dichters Byron, entwickelt.


Reis. 8. Charles Babbage


Reis. 9. Ada Lovelace

Eine analytische Engine muss sich Daten und Zwischenergebnisse von Berechnungen merken können, also über ein Gedächtnis verfügen. Diese Maschine sollte aus drei Hauptteilen bestehen: einem Gerät zum Speichern von mit Zahnrädern eingegebenen Zahlen (Speicher), einem Gerät zum Bearbeiten von Zahlen (Recheneinheit) und einem Gerät zum Bearbeiten von Zahlen mithilfe von Lochkarten (Programmsteuergerät). Die Arbeiten zur Erstellung der Analytical Engine waren noch nicht abgeschlossen, aber die darin enthaltenen Ideen trugen zum Bau der ersten Computer im 20. Jahrhundert bei (aus dem Englischen übersetzt bedeutet dieses Wort „Rechner“).

Im Jahr 1880 v.t. Odner entwickelte in Russland eine mechanische Rechenmaschine mit Zahnrädern und startete 1890 deren Massenproduktion. Anschließend wurde es bis in die 50er Jahre des 20. Jahrhunderts unter dem Namen „Felix“ produziert (Abb. 11).


Reis. 10. V.T. Odner


Reis. 11. Mechanische Addiermaschine „Felix“

Im Jahr 1888 schuf Herman Hollerith (Abb. 12) die erste elektromechanische Rechenmaschine – einen Tabulator, in dem auf Lochkarten (Abb. 13) gedruckte Informationen durch elektrischen Strom entschlüsselt wurden. Diese Maschine ermöglichte es, die Zählzeit für die US-Volkszählung um ein Vielfaches zu verkürzen. Im Jahr 1890 wurde Holleriths Erfindung erstmals bei der 11. amerikanischen Volkszählung eingesetzt. Die Arbeit, für die 500 Mitarbeiter zuvor sieben Jahre gebraucht hatten, erledigte Hollerith mit 43 Hilfskräften an 43 Tabulatoren in einem Monat.

Im Jahr 1896 gründete Hollerith ein Unternehmen namens Tabulated Machine Co. Im Jahr 1911 wurde dieses Unternehmen mit zwei anderen auf die Automatisierung der statistischen Datenverarbeitung spezialisierten Unternehmen fusioniert und erhielt 1924 seinen modernen Namen IBM (International Business Machines). Es entwickelte sich zu einem Elektronikkonzern, einem der weltweit größten Hersteller von Geräten aller Art Computer und Software, ein Anbieter globaler Informationsnetzwerke. Der Gründer von IBM war Thomas Watson Sr., der das Unternehmen im Jahr 1914 leitete, im Wesentlichen die IBM Corporation gründete und sie mehr als 40 Jahre lang leitete. Seit Mitte der 1950er Jahre nimmt IBM eine führende Position auf dem globalen Computermarkt ein. 1981 entwickelte das Unternehmen seinen ersten Personal Computer, der zum Industriestandard wurde. Mitte der 1980er Jahre kontrollierte IBM etwa 60 % der weltweiten Produktion elektronischer Computer.


Reis. 12. Thomas Watson Sr.

Reis. 13. Herman Hollerith

Ende des 19. Jahrhunderts wurde das Lochband erfunden – eine Papier- oder Zelluloidfolie, auf die mit einem Locher Informationen in Form einer Reihe von Löchern aufgebracht wurden.

Bei der Monotypie, einer 1892 von T. Lanston erfundenen Setzmaschine, wurde breites gestanztes Papierband verwendet. Die Monotypie bestand aus zwei unabhängigen Geräten: einer Tastatur und einem Gießapparat. Die Tastatur diente dazu, ein Tippprogramm auf Lochstreifen zu erstellen, und die Gießmaschine erstellte die Eingabe gemäß dem zuvor auf der Tastatur erstellten Programm aus einer speziellen typografischen Legierung – Gart.

Reis. 14. Lochkarte

Reis. 15. Lochstreifen

Der Schriftsetzer setzte sich an die Tastatur, betrachtete den vor ihm auf dem Notenständer stehenden Text und drückte die entsprechenden Tasten. Beim Anschlagen einer der Buchstabentasten stanzten die Nadeln des Stanzmechanismus mit Druckluft eine Codekombination aus Löchern in das Papierband. Diese Kombination entsprach einem bestimmten Buchstaben, Zeichen oder Leerzeichen dazwischen. Nach jedem Tastendruck bewegte sich das Papierband um einen Schritt – 3 mm. Jede horizontale Lochreihe auf dem gestanzten Papier entspricht einem Buchstaben, einem Zeichen oder einem Zwischenraum dazwischen. Die fertige (gestanzte) Spule gestanzter Papierstreifen wurde in eine Gießmaschine überführt, in der, ebenfalls unter Verwendung von Druckluft, die darauf kodierten Informationen aus dem gestanzten Papierstreifen ausgelesen und automatisch ein Buchstabensatz hergestellt wurde. Damit ist die Monotypie eine der ersten computergesteuerten Maschinen in der Geschichte der Technik. Sie wurde als Heißsatzmaschine klassifiziert und wich im Laufe der Zeit zunächst dem Fotosatz und dann dem elektronischen Satz.

Etwas früher als die Monotypie wurde 1881 die Pianola (oder Phonola) erfunden – ein Instrument zum automatischen Klavierspielen. Es wurde auch mit Druckluft betrieben. Bei einem Pianola entspricht jede Taste eines gewöhnlichen Klaviers oder Flügels einem Hammer, der sie anschlägt. Alle Hämmer zusammen bilden die Gegentastatur, die an der Klaviertastatur befestigt wird. In das Pianola wird ein breites Lochband aus Papier eingelegt, das auf einer Rolle aufgewickelt ist. Die Löcher im Lochstreifen werden vorab gebohrt, während der Pianist spielt – das sind eine Art „Notizen“. Wenn ein Pianola in Betrieb ist, wird das gestanzte Papierband von einer Rolle auf eine andere zurückgespult. Die darauf aufgezeichneten Informationen werden über einen pneumatischen Mechanismus gelesen. Er aktiviert Hämmer, die den Löchern im Lochstreifen entsprechen, sodass diese auf die Tasten schlagen und das Spiel des Pianisten reproduzieren. Somit war das Pianola auch eine programmgesteuerte Maschine. Dank der erhaltenen gestanzten Klavierkassetten war es möglich, die Darbietungen so bemerkenswerter Pianisten der Vergangenheit wie des Komponisten A.N. wiederherzustellen und mit modernen Methoden neu aufzunehmen. Skrjabin. Das Pianola wurde von den berühmten Komponisten und Pianisten Rubinstein, Paderewski und Busoni verwendet.

Später wurden Informationen von Lochstreifen und Lochkarten mithilfe elektrischer Kontakte gelesen – Metallbürsten, die bei Kontakt mit einem Loch einen Stromkreis schlossen. Dann wurden die Bürsten durch Fotozellen ersetzt und das Lesen der Informationen erfolgte optisch und berührungslos. Auf diese Weise wurden in den ersten digitalen Computern Informationen aufgezeichnet und gelesen.

Logische Operationen sind eng mit dem Alltag verbunden.

Mit einem ODER-Element für zwei Eingänge, zwei UND-Elementen für zwei Eingänge und einem NICHT-Element können Sie eine logische Schaltung eines binären Halbaddierers aufbauen, der in der Lage ist, die binäre Additionsoperation zweier einstelliger Binärzahlen durchzuführen (d. h. die durchzuführen). Regeln der binären Arithmetik):

0 +0 =0; 0+1=1; 1+0=1; 1+1=0. Dabei wird das Übertragsbit zugewiesen.

Eine solche Schaltung enthält jedoch keinen dritten Eingang, an den ein Übertragssignal vom vorherigen Bit der Binärzahlensumme angelegt werden kann. Daher wird der Halbaddierer nur im niedrigstwertigen Bit der Logikschaltung zum Summieren von Mehrbit-Binärzahlen verwendet, wo kein Übertragssignal vom vorherigen Binärbit vorhanden sein kann. Ein vollständiger Binäraddierer addiert zwei Mehrbit-Binärzahlen und berücksichtigt dabei die Übertragssignale aus der Addition in den vorherigen Binärbits.

Durch die Kaskadenschaltung binärer Addierer erhält man eine logische Addiererschaltung für Binärzahlen mit beliebig vielen Stellen.

Mit einigen Modifikationen werden diese Logikschaltungen auch zum Subtrahieren, Multiplizieren und Dividieren von Binärzahlen verwendet. Mit ihrer Hilfe wurden die Rechengeräte moderner Computer gebaut.

Im Jahr 1937 schuf George Stibitz (Abb. 16) aus gewöhnlichen elektromechanischen Relais einen binären Addierer – ein Gerät, das in der Lage ist, Zahlen im Binärcode zu addieren. Und auch heute noch ist der Binäraddierer einer der Hauptbestandteile eines jeden Computers, die Basis seines Rechengeräts.


Reis. 16. George Stibitz

1937–1942 John Atanasoff (Abb. 17) erstellte ein Modell des ersten Computers, der mit Vakuumröhren lief. Es wurde das binäre Zahlensystem verwendet. Zur Dateneingabe und Ausgabe der Berechnungsergebnisse wurden Lochkarten verwendet. Die Arbeiten an dieser Maschine waren 1942 fast abgeschlossen, kriegsbedingt wurde jedoch die weitere Förderung eingestellt.


Reis. 17. John Atanasoff

1937 entwickelte Konrad Zuse (Abb. 12) seinen ersten Computer Z1 auf Basis elektromechanischer Relais. Die Ausgangsdaten wurden über eine Tastatur eingegeben und das Ergebnis der Berechnungen auf einem Panel mit vielen Glühbirnen angezeigt. 1938 schuf K. Zuse ein verbessertes Modell Z2. Programme wurden mit Lochstreifen eingegeben. Es wurde hergestellt, indem Löcher in gebrauchten 35-mm-Fotofilm gestanzt wurden. 1941 baute K. Zuse einen funktionierenden Computer Z3 und später Z4, basierend auf dem binären Zahlensystem. Sie wurden für Berechnungen bei der Herstellung von Flugzeugen und Raketen verwendet. 1942 hatten Konrad Zuse und Helmut Schreier die Idee, den Z3 von elektromechanischen Relais auf Vakuumröhren umzustellen. Eine solche Maschine sollte 1000-mal schneller arbeiten, aber es war nicht möglich, sie zu bauen – der Krieg kam dazwischen.


Reis. 18. Konrad Zuse

In den Jahren 1943–1944 wurde in einem der IBM-Unternehmen (IBM) in Zusammenarbeit mit Wissenschaftlern der Harvard University unter der Leitung von Howard Aiken der Mark-1-Computer entwickelt. Es wog etwa 35 Tonnen. „Mark-1“ basierte auf der Verwendung elektromechanischer Relais und wurde mit auf Lochstreifen codierten Zahlen betrieben.

Bei der Erstellung wurden die Ideen von Charles Babbage in seiner Analytical Engine verwendet. Im Gegensatz zu Stiebitz und Zuse erkannte Aiken die Vorteile des binären Zahlensystems nicht und verwendete in seiner Maschine das Dezimalsystem. Die Maschine konnte Zahlen mit einer Länge von bis zu 23 Ziffern manipulieren. Um zwei solcher Zahlen zu multiplizieren, brauchte sie 4 Sekunden. 1947 wurde die Mark-2-Maschine entwickelt, die bereits das binäre Zahlensystem verwendete. In dieser Maschine dauerten Additions- und Subtraktionsoperationen durchschnittlich 0,125 Sekunden und die Multiplikation 0,25 Sekunden.

Die abstrakte Wissenschaft der logischen Algebra ist nah am praktischen Leben. Damit können Sie eine Vielzahl von Steuerungsproblemen lösen.

Auch die Ein- und Ausgangssignale elektromagnetischer Relais nehmen, wie Aussagen in der Booleschen Algebra, nur zwei Werte an. Wenn die Wicklung stromlos ist, ist das Eingangssignal 0, und wenn Strom durch die Wicklung fließt, ist das Eingangssignal 1. Wenn der Relaiskontakt geöffnet ist, ist das Ausgangssignal 0, und wenn der Kontakt geschlossen ist, ist das Ausgangssignal 0 ist 1.

Genau diese Ähnlichkeit zwischen Aussagen der Booleschen Algebra und dem Verhalten elektromagnetischer Relais fiel dem berühmten Physiker Paul Ehrenfest auf. Bereits 1910 schlug er vor, die Boolesche Algebra zur Beschreibung der Funktionsweise von Relaisschaltungen in Telefonsystemen zu verwenden. Einer anderen Version zufolge stammt die Idee, die Boolesche Algebra zur Beschreibung elektrischer Schaltkreise zu verwenden, von Peirce. 1936 kombinierte der Begründer der modernen Informationstheorie, Claude Shannon, in seiner Doktorarbeit das binäre Zahlensystem, die mathematische Logik und elektrische Schaltkreise.

Es ist praktisch, Verbindungen zwischen elektromagnetischen Relais in Stromkreisen mit den logischen Verknüpfungen NICHT, UND, ODER, WIEDERHOLEN (JA) usw. zu kennzeichnen. Beispielsweise realisiert eine Reihenschaltung von Relaiskontakten eine UND-Verknüpfung und eine Parallelschaltung dieser Kontakte eine logische ODER-Verknüpfung. Operationen UND, ODER, NICHT werden auf ähnliche Weise in elektronischen Schaltkreisen ausgeführt, wo die Rolle von Relais, die Stromkreise schließen und öffnen, von kontaktlosen Halbleiterelementen übernommen wird – Transistoren, die 1947–1948 von den amerikanischen Wissenschaftlern D. Bardeen, W. Brattain und W. entwickelt wurden .Shockley.

Elektromechanische Relais waren zu langsam. Daher begannen die Amerikaner bereits 1943 mit der Entwicklung eines Computers auf Basis von Vakuumröhren. 1946 bauten Presper Eckert und John Mauchly (Abb. 13) den ersten elektronischen Digitalcomputer, ENIAC. Sein Gewicht betrug 30 Tonnen, es nahm eine Fläche von 170 Quadratmetern ein. m Fläche. Anstelle Tausender elektromechanischer Relais enthielt ENIAC 18.000 Vakuumröhren. Die Maschine zählte im Binärsystem und führte pro Sekunde 5000 Additionen bzw. 300 Multiplikationen durch. In dieser Maschine wurde nicht nur ein Rechengerät, sondern auch ein Speicher auf Vakuumröhren aufgebaut. Numerische Daten wurden über Lochkarten eingegeben, Programme wurden in diese Maschine über Stecker und Satzfelder eingegeben, d. h. für jedes neue Programm mussten Tausende von Kontakten verbunden werden. Daher dauerte die Vorbereitung zur Lösung eines neuen Problems mehrere Tage, obwohl das Problem selbst in wenigen Minuten gelöst war. Dies war einer der Hauptnachteile einer solchen Maschine.


Reis. 19. Presper Eckert und John Mauchly

Die Arbeit dreier herausragender Wissenschaftler – Claude Shannon, Alan Turing und John von Neumann – wurde zur Grundlage für die Schaffung der Struktur moderner Computer.

Shannon Claude (geb. 1916) ist ein amerikanischer Ingenieur und Mathematiker, der Begründer der mathematischen Informationstheorie.

1948 veröffentlichte er das Werk „Mathematische Theorie der Kommunikation“ mit seiner Theorie der Informationsübertragung und -verarbeitung, die alle Arten von Nachrichten umfasste, auch solche, die über Nervenfasern in lebenden Organismen übertragen werden. Shannon führte das Konzept der Informationsmenge als Maß für die Unsicherheit des Systemzustands ein, die beim Empfang von Informationen entsteht. Er nannte dieses Maß der Unsicherheit Entropie, in Anlehnung an ein ähnliches Konzept in der statistischen Mechanik. Wenn der Beobachter Informationen erhält, nimmt die Entropie, also der Grad seiner Unkenntnis über den Zustand des Systems, ab.

Alan Turing (1912–1954) – englischer Mathematiker. Seine Hauptwerke befassen sich mit der mathematischen Logik und der Computermathematik. 1936–1937 schrieb das bahnbrechende Werk „Über berechenbare Zahlen“, in dem er das Konzept eines abstrakten Geräts einführte, das später „Turingmaschine“ genannt wurde. In diesem Gerät nahm er die grundlegenden Eigenschaften des modernen Computers vorweg. Turing nannte sein Gerät eine „universelle Maschine“, da es jedes zulässige (theoretisch lösbare) mathematische oder logische Problem lösen sollte. Die Daten müssen von einem in Zellen unterteilten Papierband eingegeben werden. Jede dieser Zellen musste entweder ein Symbol enthalten oder nicht. Die Turing-Maschine konnte vom Band eingegebene Symbole verarbeiten und sie ändern, das heißt, sie löschen und neue schreiben, entsprechend den in ihrem internen Speicher gespeicherten Anweisungen.

Neumann John von (1903–1957) – US-amerikanischer Mathematiker und Physiker, Teilnehmer an der Entwicklung von Atom- und Wasserstoffwaffen. Er wurde in Budapest geboren und lebte seit 1930 in den USA. In seinem 1945 veröffentlichten Bericht, dem ersten Werk über digitale elektronische Computer, identifizierte und beschrieb er die „Architektur“ des modernen Computers.

Bei der nächsten Maschine – EDVAC – konnte der größere interne Speicher nicht nur die Originaldaten, sondern auch das Berechnungsprogramm speichern. Diese Idee – Programme im Speicher von Maschinen zu speichern – wurde vom Mathematiker John von Neumann zusammen mit Mauchly und Eckert vertreten. Er beschrieb als Erster den Aufbau eines Universalcomputers (die sogenannte „von-Neumann-Architektur“ eines modernen Computers). Für die Universalität und den effizienten Betrieb muss ein Computer laut von Neumann eine zentrale arithmetisch-logische Einheit, ein zentrales Gerät zur Steuerung aller Vorgänge, ein Speichergerät (Speicher) und ein Informations-Ein-/Ausgabegerät enthalten und darin Programme gespeichert sein Speicher des Computers.

Von Neumann glaubte, dass ein Computer auf der Grundlage des binären Zahlensystems arbeiten, elektronisch sein und alle Operationen nacheinander ausführen sollte. Diese Prinzipien sind die Grundlage aller modernen Computer.

Eine Maschine mit Vakuumröhren arbeitete viel schneller als eine Maschine mit elektromechanischen Relais, aber die Vakuumröhren selbst waren unzuverlässig. Sie scheiterten oft. Um sie zu ersetzen, schlugen John Bardeen, Walter Brattain und William Shockley 1947 vor, die von ihnen erfundenen schaltenden Halbleiterelemente zu verwenden – Transistoren.

John Bardeen (1908–1991) – US-amerikanischer Physiker. Einer der Schöpfer des ersten Transistors (1956 Nobelpreis für Physik zusammen mit W. Brattain und W. Shockley für die Entdeckung des Transistoreffekts). Einer der Autoren der mikroskopischen Theorie der Supraleitung (zweiter Nobelpreis 1957 gemeinsam mit L. Cooper und D. Schriffen).

Walter Brattain (1902–1987) – US-amerikanischer Physiker, einer der Erfinder des ersten Transistors, Gewinner des Nobelpreises für Physik im Jahr 1956.

William Shockley (1910–1989) – US-amerikanischer Physiker, einer der Erfinder des ersten Transistors, Gewinner des Nobelpreises für Physik im Jahr 1956.

In modernen Computern sind mikroskopisch kleine Transistoren in einem integrierten Schaltkreischip in Systemen von „Gattern“ gruppiert, die logische Operationen an Binärzahlen ausführen. Mit ihrer Hilfe wurden beispielsweise die oben beschriebenen binären Addierer gebaut, die es ermöglichen, mehrstellige Binärzahlen zu addieren, zu subtrahieren, zu multiplizieren, zu dividieren und Zahlen miteinander zu vergleichen. Logische Gatter steuern nach bestimmten Regeln die Datenbewegung und die Ausführung von Anweisungen im Computer.

Die Verbesserung der ersten Computertypen führte 1951 zur Entwicklung des UNIVAC-Computers, der für den kommerziellen Einsatz bestimmt war. Es war der erste kommerziell hergestellte Computer.

Der 1952 erschienene serielle Röhrenrechner IBM 701 führte bis zu 2200 Multiplikationsoperationen pro Sekunde durch.


IBM 701-Computer

Die Initiative zur Schaffung dieses Systems lag bei Thomas Watson Jr. 1937 begann er als Handelsreisender für das Unternehmen zu arbeiten. Erst während des Krieges hörte er auf, für IBM zu arbeiten, als er Pilot bei der United States Air Force war. 1946 kehrte er zum Unternehmen zurück, wurde dessen Vizepräsident und leitete IBM von 1956 bis 1971. Während er weiterhin Mitglied des IBM-Vorstands war, fungierte Thomas Watson von 1979 bis 1981 als US-Botschafter in der UdSSR.


Thomas Watson (Jr.)

1964 kündigte IBM die Entwicklung von sechs Modellen der IBM 360-Familie (System 360) an, die die ersten Computer der dritten Generation waren. Die Modelle verfügten über ein einziges Befehlssystem und unterschieden sich voneinander in der Größe des Arbeitsspeichers und der Leistung. Bei der Erstellung von Modellen der Familie kamen eine Reihe neuer Prinzipien zum Einsatz, die die Maschinen universell machten und es ermöglichten, sie sowohl zur Lösung von Problemen in verschiedenen Bereichen der Wissenschaft und Technik als auch zur Datenverarbeitung im Bereich gleichermaßen effizient einzusetzen Management und Wirtschaft. IBM System/360 (S/360) ist eine Familie von Universalcomputern der Großrechnerklasse. Weiterentwicklungen von IBM/360 waren die Systeme 370, 390, z9 und zSeries. In der UdSSR wurde der IBM/360 unter dem Namen ES COMPUTER geklont. Sie waren softwarekompatibel mit ihren amerikanischen Prototypen. Dies ermöglichte den Einsatz westlicher Software unter Bedingungen der Unterentwicklung der heimischen „Programmierindustrie“.


IBM/360-Computer


T. Watson (Jr.) und V. Lerson am IBM/360-Computer

Die erste kleine elektronische Rechenmaschine (MESM) in der UdSSR mit Vakuumröhren wurde 1949–1951 gebaut. unter der Leitung des Akademikers S.A. Lebedeva. Unabhängig von ausländischen Wissenschaftlern S.A. Lebedev entwickelte die Prinzipien zum Aufbau eines Computers mit einem im Speicher gespeicherten Programm. MESM war die erste Maschine dieser Art. Und in den Jahren 1952–1954. Unter seiner Führung wurde die High-Speed ​​​​Electronic Calculated Machine (BESM) entwickelt, die 8.000 Operationen pro Sekunde durchführt.


Lebedew Sergej Alexejewitsch

Die Entwicklung elektronischer Computer wurde von den größten sowjetischen Wissenschaftlern und Ingenieuren I.S. geleitet. Brook, W.M. Glushkov, Yu.A. Bazilevsky, B.I. Rameev, L.I. Gutenmacher, N.P. Brusentsov.

Zur ersten Generation sowjetischer Computer gehörten Röhrencomputer – „BESM-2“, „Strela“, „M-2“, „M-3“, „Minsk“, „Ural-1“, „Ural-2“, „M - 20".

Zur zweiten Generation sowjetischer Computer gehören Halbleiter-Kleincomputer „Nairi“ und „Mir“, mittelgroße Computer für wissenschaftliche Berechnungen und Informationsverarbeitung mit einer Geschwindigkeit von 5-30.000 Operationen pro Sekunde „Minsk-2“, „Minsk-22“. , „Minsk-32“, „Ural-14“, „Razdan-2“, „Razdan-3“, „BESM-4“, „M-220“ und Kontrollcomputer „Dnepr“, „VNIIEM-3“, sowie der ultraschnelle BESM-6 mit einer Leistung von 1 Million Operationen pro Sekunde.

Die Begründer der sowjetischen Mikroelektronik waren Wissenschaftler, die aus den USA in die UdSSR emigrierten: F.G. Staros (Alfred Sarant) und I.V. Berg (Joel Barr). Sie wurden Initiatoren, Organisatoren und Leiter des Mikroelektronikzentrums in Selenograd bei Moskau.


F.G. Staros

In der zweiten Hälfte der 1960er Jahre tauchten in der UdSSR Computer der dritten Generation auf, die auf integrierten Schaltkreisen basierten. Das Unified Computer System (ES COMPUTER) und das Small Computer System (SM COMPUTER) wurden entwickelt und ihre Massenproduktion organisiert. Wie oben erwähnt, war dieses System ein Klon des amerikanischen IBM/360-Systems.

Evgeniy Alekseevich Lebedev war ein leidenschaftlicher Gegner des in den 1970er Jahren begonnenen Kopierens des amerikanischen IBM/360-Systems, das in der sowjetischen Version ES Computer genannt wurde. Die Rolle der EU-Computer bei der Entwicklung heimischer Computer ist unklar.

In der Anfangsphase führte das Aufkommen von ES-Computern zur Vereinheitlichung von Computersystemen, ermöglichte die Festlegung erster Programmierstandards und die Organisation groß angelegter Projekte im Zusammenhang mit der Implementierung von Programmen.

Der Preis dafür war die weitgehende Einschränkung der eigenen ursprünglichen Entwicklungen und die völlige Abhängigkeit von den Ideen und Konzepten von IBM, die damals alles andere als die besten waren. Der abrupte Übergang von einfach zu bedienenden sowjetischen Maschinen zur viel komplexeren Hardware und Software von IBM/360 bedeutete, dass viele Programmierer Schwierigkeiten überwinden mussten, die mit den Unzulänglichkeiten und Fehlern der IBM-Entwickler verbunden waren. Die ersten ES-Computermodelle waren in ihren Leistungsmerkmalen den damaligen Heimcomputern oft unterlegen.

Später, insbesondere in den 80er Jahren, wurde die flächendeckende Einführung von EU-Rechnern zu einem ernsthaften Hindernis für die Entwicklung von Software, Datenbanken und Dialogsystemen. Nach teuren und vorgeplanten Anschaffungen waren Unternehmen gezwungen, veraltete Computersysteme zu betreiben. Parallel dazu wurden Systeme auf kleinen Maschinen und auf Personalcomputern entwickelt, die immer beliebter wurden.

Zu einem späteren Zeitpunkt, mit Beginn der Perestroika in den Jahren 1988–89, wurde unser Land mit ausländischen Personalcomputern überschwemmt. Keine Maßnahmen könnten die Krise der EU-Computerserie stoppen. Die heimische Industrie war nicht in der Lage, auf Basis der neuen Elementbasis Analoga oder Ersatz für ES-Computer zu schaffen. Die Wirtschaft der UdSSR erlaubte es zu diesem Zeitpunkt nicht, gigantische Finanzmittel für die Herstellung mikroelektronischer Geräte aufzuwenden. Infolgedessen kam es zu einem vollständigen Übergang zu importierten Computern. Programme zur Entwicklung heimischer Computer wurden schließlich eingeschränkt. Es traten Probleme bei der Übertragung von Technologien auf moderne Computer, der Modernisierung von Technologien sowie der Beschäftigung und Umschulung Hunderttausender Fachkräfte auf.

Prognose S.A. Lebedeva war gerechtfertigt. Sowohl in den USA als auch auf der ganzen Welt folgten sie anschließend dem von ihm vorgeschlagenen Weg: Einerseits entstehen Supercomputer, andererseits eine ganze Reihe weniger leistungsstarker Computer für verschiedene Anwendungen – persönliche, spezialisierte usw.

Die vierte Generation sowjetischer Computer wurde auf der Basis von großformatigen (LSI) und ultragroßen (VLSI) integrierten Schaltkreisen implementiert.

Ein Beispiel für große Computersysteme der vierten Generation war der Multiprozessorkomplex Elbrus-2 mit einer Geschwindigkeit von bis zu 100 Millionen Operationen pro Sekunde.

In den 1950er Jahren wurde die zweite Generation von Transistorcomputern entwickelt. Dadurch wurde die Geschwindigkeit der Maschinen um das Zehnfache erhöht und Größe und Gewicht deutlich reduziert. Sie begannen, Speichergeräte mit magnetischen Ferritkernen zu verwenden, die in der Lage waren, Informationen unbegrenzt zu speichern, selbst wenn der Computer ausgeschaltet war. Sie wurden 1951–1953 von Joy Forrester entworfen. Große Informationsmengen wurden auf externen Datenträgern, beispielsweise einem Magnetband oder einer Magnettrommel, gespeichert.

Das erste Festplattenlaufwerk in der Geschichte der Informatik (Winchester) wurde 1956 von einer Gruppe von IBM-Ingenieuren unter der Leitung von Reynold B. Johnson entwickelt. Das Gerät hieß 305 RAMAC – eine Direktzugriffsmethode zur Abrechnung und Steuerung. Der Antrieb bestand aus 50 Aluminiumscheiben mit einem Durchmesser von 24 Zoll (ca. 60 cm) und einer Dicke von jeweils 2,5 cm. Auf die Oberfläche der Aluminiumplatte wurde eine Magnetschicht aufgebracht, auf der die Aufzeichnung durchgeführt wurde. Diese gesamte Scheibenstruktur auf einer gemeinsamen Achse drehte sich im Betriebsmodus mit einer konstanten Geschwindigkeit von 1200 U/min, und das Laufwerk selbst nahm eine Fläche von 3 x 3,5 m ein. Seine Gesamtkapazität betrug 5 MB. Eines der wichtigsten Prinzipien beim Design des RAMAC 305 war, dass die Köpfe die Oberfläche der Platten nicht berührten, sondern in einem kleinen festen Abstand schwebten. Zu diesem Zweck wurden spezielle Luftdüsen verwendet, die die Strömung durch kleine Löcher in den Kopfhalterungen auf die Scheibe richteten und dadurch einen Spalt zwischen dem Kopf und der Oberfläche der rotierenden Platte erzeugten.

Die Winchester (Festplatte) bot Computerbenutzern die Möglichkeit, sehr große Informationsmengen zu speichern und gleichzeitig die benötigten Daten schnell abzurufen. Nach der Erfindung der Festplatte im Jahr 1958 wurde auf Magnetbandmedien verzichtet.

1959 erfanden D. Kilby, D. Herney, K. Lehovec und R. Noyce (Abb. 14) integrierte Schaltkreise (Chips), bei denen alle elektronischen Komponenten zusammen mit den Leitern in einem Siliziumwafer untergebracht waren. Durch den Einsatz von Chips in Computern ist es möglich, die Wege für den Stromfluss beim Schalten zu verkürzen. Die Berechnungsgeschwindigkeit hat sich verzehnfacht. Auch die Abmessungen der Maschinen haben sich deutlich verringert. Das Erscheinen des Chips ermöglichte die Entwicklung der dritten Computergeneration. Und 1964 begann IBM mit der Produktion von IBM-360-Computern auf Basis integrierter Schaltkreise.


Reis. 14. D. Kilby, D. Hurney, K. Lechovec und R. Noyce

Im Jahr 1965 entwickelte Douglas Engelbart (Abb. 15) die erste „Maus“ – einen handgehaltenen Computermanipulator. Es wurde erstmals im Apple Macintosh Personal Computer verwendet, der später im Jahr 1976 auf den Markt kam.


Reis. 19. Douglas Engelbart

Im Jahr 1971 begann IBM mit der Produktion der von Yoshiro Nakamatsu erfundenen Computerdiskette, einer austauschbaren flexiblen Magnetplatte („Diskette“) zur dauerhaften Speicherung von Informationen. Anfangs hatte die Diskette einen Durchmesser von 8 Zoll und eine Kapazität von 80 KB, dann - 5 Zoll. Die moderne 1,44-MB-Diskette, erstmals 1982 von Sony herausgebracht, ist in einem Hartplastikgehäuse untergebracht und hat einen Durchmesser von 3,5 Zoll.

Im Jahr 1969 begann in den Vereinigten Staaten der Aufbau eines Verteidigungscomputernetzwerks – dem Vorläufer des modernen weltweiten Internets.

In den 1970er Jahren wurden Nadeldrucker entwickelt, um von Computern ausgegebene Informationen zu drucken.

1971 entwickelte der Intel-Mitarbeiter Edward Hoff (Abb. 20) den ersten Mikroprozessor, den 4004, indem er mehrere integrierte Schaltkreise auf einem einzigen Siliziumchip platzierte. Obwohl er ursprünglich für den Einsatz in Taschenrechnern gedacht war, handelte es sich im Wesentlichen um einen vollständigen Mikrocomputer. Diese revolutionäre Erfindung veränderte die Vorstellung von Computern als sperrigen, schwerfälligen Monstern radikal. Der Mikroprozessor ermöglichte die Entwicklung von Computern der vierten Generation, die auf den Schreibtisch des Benutzers passen.


Reis. 20. Edward Hoff

Mitte der 1970er Jahre begannen Versuche, einen Personal Computer (PC) zu entwickeln, eine Rechenmaschine für den Privatanwender.

1974 entwickelte Edward Roberts (Abb. 21) den ersten Personal Computer, Altair, basierend auf dem Intel 8080-Mikroprozessor (Abb. 22). Doch ohne Software war es wirkungslos: Schließlich hat ein Privatanwender zu Hause keinen eigenen Programmierer „zur Hand“.


Reis. 21. Edward Roberts


Reis. 22. Erster Personalcomputer Altair

1975 erfuhren zwei Studenten der Harvard University, Bill Gates und Paul Allen, von der Entwicklung des Altair-PCs (Abb. 23). Sie erkannten als erste die dringende Notwendigkeit, Software für Personalcomputer zu schreiben, und erstellten sie innerhalb eines Monats auf der Grundlage der BASIC-Sprache für den Altair-PC. Im selben Jahr gründeten sie Microsoft, das schnell zum Marktführer für PC-Software und zum reichsten Unternehmen der Welt wurde.


Reis. 23. Bill Gates und Paul Allen


Reis. 24. Bill Gates

1973 entwickelte IBM eine magnetische Festplatte (Festplatte) für einen Computer. Diese Erfindung ermöglichte die Schaffung eines Langzeitspeichers mit großer Kapazität, der auch beim Ausschalten des Computers erhalten bleibt.

Die ersten Altair-8800-Mikrocomputer waren lediglich eine Ansammlung von Teilen, die noch zusammengebaut werden mussten. Darüber hinaus waren sie äußerst umständlich zu bedienen: Sie hatten weder einen Monitor noch eine Tastatur oder eine Maus. Informationen wurden über Schalter auf der Frontplatte eingegeben und die Ergebnisse über LED-Anzeigen angezeigt. Später begannen sie, Ergebnisse mit einem Teletyp anzuzeigen – einem Telegrafengerät mit Tastatur.

1976 entwickelte der 26-jährige Ingenieur Steve Wozniak von Hewlett-Packard einen grundlegend neuen Mikrocomputer. Er war der erste, der eine Tastatur ähnlich einer Schreibmaschinentastatur zur Eingabe von Daten und einen gewöhnlichen Fernseher zur Anzeige von Informationen verwendete. Auf seinem Bildschirm wurden Symbole in 24 Zeilen mit jeweils 40 Zeichen angezeigt. Der Computer verfügte über 8 KB Speicher, von dem die Hälfte von der integrierten BASIC-Sprache belegt war und die Hälfte vom Benutzer zur Eingabe seiner Programme genutzt werden konnte. Dieser Computer war dem Altair-8800 deutlich überlegen, der nur über 256 Byte Speicher verfügte. S. Wozniak stellte für seinen neuen Computer einen Anschluss (den sogenannten „Slot“) zum Anschluss weiterer Geräte zur Verfügung. Steve Wozniaks Freund Steve Jobs war der erste, der die Zukunftsaussichten dieses Computers erkannte und schätzte (Abb. 25). Er schlug vor, ein Unternehmen für die Serienproduktion zu gründen. Am 1. April 1976 gründeten sie das Unternehmen Apple und ließen es im Januar 1977 offiziell registrieren. Sie nannten den neuen Computer Apple-I (Abb. 26). Innerhalb von 10 Monaten gelang es ihnen, rund 200 Exemplare des Apple-I zusammenzustellen und zu verkaufen.


Reis. 25. Steve Wozniak und Steve Jobs


Reis. 26. Apple-I Personal Computer

Zu diesem Zeitpunkt arbeitete Wozniak bereits an einer Verbesserung. Die neue Version hieß Apple-II (Abb. 23). Der Computer wurde in einem Kunststoffgehäuse hergestellt, erhielt einen Grafikmodus, Sound, Farbe, erweiterten Speicher und 8 Erweiterungsanschlüsse (Steckplätze) anstelle von einem. Zum Speichern von Programmen wurde ein Kassettenrekorder verwendet. Die Basis des ersten Apple-II-Modells war wie beim Apple I der Mikroprozessor 6502 von MOS Technology mit einer Taktfrequenz von 1 Megahertz. BASIC wurde im permanenten Speicher aufgezeichnet. Die RAM-Kapazität von 4 KB wurde auf 48 KB erweitert. Die Informationen wurden auf einem Farb- oder Schwarzweißfernseher angezeigt, der im NTSC-Standardsystem für die USA arbeitet. Im Textmodus wurden 24 Zeilen mit jeweils 40 Zeichen angezeigt und im Grafikmodus betrug die Auflösung 280 x 192 Pixel (sechs Farben). Der Hauptvorteil des Apple II war die Möglichkeit, seinen Arbeitsspeicher auf bis zu 48 KB zu erweitern und 8 Anschlüsse zum Anschluss zusätzlicher Geräte zu nutzen. Dank der Verwendung von Farbgrafiken konnte es für verschiedenste Spiele eingesetzt werden (Abb. 27).


Reis. 27. Apple II Personal Computer

Dank seiner Fähigkeiten erfreut sich der Apple II bei Menschen verschiedener Berufe großer Beliebtheit. Für die Benutzer waren keine Kenntnisse in Elektronik oder Programmiersprachen erforderlich.

Der Apple II war der erste echte Personalcomputer für Wissenschaftler, Ingenieure, Anwälte, Geschäftsleute, Hausfrauen und Schulkinder.

Im Juli 1978 wurde der Apple II durch das Disk II-Laufwerk ergänzt, das seine Fähigkeiten erheblich erweiterte. Dafür wurde das Festplattenbetriebssystem Apple-DOS entwickelt. Und Ende 1978 wurde der Computer erneut verbessert und unter dem Namen Apple II Plus veröffentlicht. Jetzt könnte es im geschäftlichen Bereich zum Speichern von Informationen, zur Geschäftsabwicklung und zur Unterstützung bei der Entscheidungsfindung eingesetzt werden. Es begann mit der Entwicklung von Anwendungsprogrammen wie Texteditoren, Organizern und Tabellenkalkulationen.

1979 entwickelten Dan Bricklin und Bob Frankston VisiCalc, die weltweit erste Tabellenkalkulation. Dieses Tool eignete sich am besten für Buchhaltungsberechnungen. Die erste Version wurde für den Apple II geschrieben, der oft nur gekauft wurde, um mit VisiCalc zu arbeiten.

So wurde der Mikrocomputer innerhalb weniger Jahre, vor allem dank Apple und seinen Gründern Steven Jobs und Steve Wozniak, zu einem Personalcomputer für Menschen verschiedener Berufe.

1981 erschien der IBM PC Personal Computer, der bald zum Standard in der Computerindustrie wurde und fast alle konkurrierenden Personal Computer-Modelle vom Markt verdrängte. Die einzige Ausnahme war Apple. 1984 wurde der Apple Macintosh entwickelt, der erste Computer mit einer grafischen Oberfläche, die mit einer Maus gesteuert wurde. Dank seiner Vorteile gelang es Apple, auf dem PC-Markt zu bleiben. Es hat den Markt im Bildungs- und Verlagswesen erobert, wo die herausragenden Grafikfähigkeiten von Macintosh-Computern für Layout und Bildverarbeitung genutzt werden.

Heute kontrolliert Apple 8–10 % des weltweiten PC-Marktes und die restlichen 90 % sind IBM-kompatible PCs. Die meisten Macintosh-Computer gehören Benutzern in den Vereinigten Staaten.

1979 erschien die von Philips entwickelte optische Compact Disc (CD), die nur zum Anhören von Musikaufnahmen gedacht war.

1979 entwickelte Intel den Mikroprozessor 8088 für Personalcomputer.

Personalcomputer des IBM-PC-Modells, die 1981 von einer Gruppe von IBM-Ingenieuren unter der Leitung von William C. Lowe entwickelt wurden, verbreiteten sich. Der IBM-PC verfügte über einen Intel 8088-Prozessor mit einer Taktfrequenz von 4,77 MHz, 16 Kb Speicher, erweiterbar auf bis zu 256 Kb, und das Betriebssystem DOS 1.0. (Abb. 24). Das Betriebssystem DOS 1.0 wurde von Microsoft entwickelt. In nur einem Monat gelang es IBM, 241.683 IBM-PCs zu verkaufen. In Absprache mit Microsoft-Führungskräften zahlte IBM den Erstellern des Programms für jede auf dem IBM-PC installierte Kopie des Betriebssystems einen bestimmten Betrag. Dank der Popularität des IBM-PCs wurden die Microsoft-Manager Bill Gates und Paul Allen bald zu Milliardären und Microsoft nahm eine führende Position auf dem Softwaremarkt ein.


Reis. 28. Personalcomputermodell IBM PC

Der IBM PC nutzte das Prinzip der offenen Architektur, was es ermöglichte, bestehende PC-Designs zu verbessern und zu ergänzen. Dieses Prinzip bedeutet die Verwendung vorgefertigter Blöcke und Geräte im Design beim Zusammenbau eines Computers sowie die Standardisierung von Methoden zum Anschluss von Computergeräten.

Das Prinzip der offenen Architektur trug zur weiten Verbreitung IBM PC-kompatibler Klon-Mikrocomputer bei. Zahlreiche Unternehmen auf der ganzen Welt begannen damit, sie aus vorgefertigten Blöcken und Geräten zusammenzubauen. Anwender wiederum konnten ihre Mikrocomputer selbstständig aufrüsten und mit Zusatzgeräten von Hunderten Herstellern ausstatten.

In den späten 1990er Jahren machten IBM PC-kompatible Computer 90 % des PC-Marktes aus.

Der IBM-PC wurde bald zum Standard in der Computerindustrie und verdrängte fast alle konkurrierenden Personalcomputermodelle vom Markt. Die einzige Ausnahme war Apple. 1984 wurde der Apple Macintosh entwickelt, der erste Computer mit einer grafischen Oberfläche, die mit einer Maus gesteuert wurde. Dank seiner Vorteile gelang es Apple, auf dem PC-Markt zu bleiben. Es hat den Markt im Bildungs- und Verlagsbereich erobert, wo seine herausragenden Grafikfähigkeiten für Layout und Bildverarbeitung genutzt werden.

Heute kontrolliert Apple 8–10 % des weltweiten PC-Marktes und die restlichen 90 % sind IBM-kompatible PCs. Die meisten Macintosh-Computer gehören US-Benutzern.

In den letzten Jahrzehnten des 20. Jahrhunderts haben Computer ihre Geschwindigkeit und die Menge der verarbeiteten und gespeicherten Informationen erheblich gesteigert.

Im Jahr 1965 schlug Gordon Moore, einer der Gründer der Intel Corporation, einem führenden Unternehmen auf dem Gebiet der integrierten Computerschaltkreise – „Chips“, vor, dass sich die Anzahl der darin enthaltenen Transistoren jedes Jahr verdoppeln würde. In den nächsten 10 Jahren bewahrheitete sich diese Vorhersage, und dann schlug er vor, dass sich diese Zahl nun alle 2 Jahre verdoppeln würde. Tatsächlich verdoppelt sich die Anzahl der Transistoren in Mikroprozessoren alle 18 Monate. Informatiker nennen diesen Trend mittlerweile Mooresches Gesetz.


Reis. 29. Gordon Moore

Ein ähnliches Muster ist bei der Entwicklung und Produktion von RAM-Geräten und Informationsspeichergeräten zu beobachten. Ich habe übrigens keinen Zweifel daran, dass zum Zeitpunkt der Veröffentlichung dieses Buches viele digitale Daten hinsichtlich ihrer Kapazität und Geschwindigkeit veraltet sein werden.

Die Entwicklung von Software, ohne die die Nutzung eines Personal Computers in der Regel nicht möglich ist, und vor allem von Betriebssystemen, die die Interaktion zwischen Benutzer und PC gewährleisten, ist nicht zurückgeblieben.

1981 entwickelte Microsoft das Betriebssystem MS-DOS für seine Personalcomputer.

1983 wurde der verbesserte Personalcomputer IBM PC/XT von IBM entwickelt.

In den 1980er Jahren wurden Schwarzweiß- und Farbtintenstrahl- und Laserdrucker entwickelt, um von Computern ausgegebene Informationen zu drucken. Sie sind Nadeldruckern hinsichtlich Druckqualität und Geschwindigkeit deutlich überlegen.

In den Jahren 1983–1993 entstand das globale Computernetzwerk Internet und E-Mail, das von Millionen Benutzern auf der ganzen Welt genutzt wurde.

Im Jahr 1992 veröffentlichte Microsoft das Betriebssystem Windows 3.1 für IBM PC-kompatible Computer. Das aus dem Englischen übersetzte Wort „Windows“ bedeutet „Fenster“. Ein Betriebssystem mit Fenster ermöglicht Ihnen die gleichzeitige Arbeit mit mehreren Dokumenten. Es handelt sich um eine sogenannte „grafische Oberfläche“. Dabei handelt es sich um ein System der Interaktion mit einem PC, bei dem der Nutzer mit sogenannten „Icons“ zu tun hat: Bildern, die er mit einer Computermaus steuern kann. Dieses grafische Benutzeroberflächen- und Fenstersystem wurde erstmals 1975 im Xerox-Forschungszentrum entwickelt und auf Apple-PCs angewendet.

Im Jahr 1995 veröffentlichte Microsoft das Betriebssystem Windows-95 für IBM PC-kompatible Computer, das fortschrittlicher als Windows-3.1 war, im Jahr 1998 die Modifikation Windows-98, im Jahr 2000 Windows-2000 und im Jahr 2006 Windows XP. Für sie wurden eine Reihe von Anwendungsprogrammen entwickelt: Word-Texteditor, Excel-Tabellen, ein Programm zur Nutzung des Internets und von E-Mail – Internet Explorer, Paint-Grafikeditor, Standardanwendungsprogramme (Taschenrechner, Uhr, Dialer), Microsoft Schedule Diary , Universalplayer, Phonograph und Laserplayer.

In den letzten Jahren ist es möglich geworden, Texte und Grafiken mit Ton und bewegten Bildern auf dem Personal Computer zu kombinieren. Diese Technologie wird „Multimedia“ genannt. Als Speichermedium in solchen Multimedia-Computern werden optische CD-ROMs (Compact Disk Read Only Memory – also Nur-Lese-Speicher auf einer CD) verwendet. Äußerlich unterscheiden sie sich nicht von Audio-CDs, die in Playern und Musikcentern verwendet werden.

Die Kapazität einer CD-ROM erreicht 650 MB und nimmt hinsichtlich der Kapazität eine Zwischenstellung zwischen Disketten und einer Festplatte ein. Zum Lesen von CDs wird ein CD-Laufwerk verwendet. Informationen auf einer CD werden in einer industriellen Umgebung nur einmal geschrieben und auf einem PC können sie nur gelesen werden. Auf CD-ROM werden verschiedenste Spiele, Enzyklopädien, Kunstalben, Karten, Atlanten, Wörterbücher und Nachschlagewerke veröffentlicht. Alle sind mit praktischen Suchmaschinen ausgestattet, die es Ihnen ermöglichen, schnell das benötigte Material zu finden. Die Speicherkapazität von zwei CD-ROMs reicht aus, um eine größere Enzyklopädie aufzunehmen als die Große Sowjetische Enzyklopädie.

In den späten 1990er Jahren wurden einmal beschreibbare CD-Rs und wiederbeschreibbare CD-RWs mit optischen CDs und Laufwerken entwickelt, mit denen der Benutzer beliebige Audio- und Videoaufnahmen nach seinen Wünschen erstellen konnte.

In den Jahren 1990–2000 wurden neben Desktop-PCs auch „Laptops“ in Form eines tragbaren Koffers und noch kleinerer Taschen-„Palmtops“ (Handhelds) auf den Markt gebracht – wie der Name schon sagt, passen sie in die Tasche und auf die Handfläche deiner Hand. Laptops sind mit einem Flüssigkristallbildschirm ausgestattet, der sich im Klappdeckel und bei Palmtops auf der Vorderseite des Gehäuses befindet.

In den Jahren 1998–2000 wurde ein Miniatur-Solid-State-„Flash-Speicher“ (ohne bewegliche Teile) entwickelt. So hat der Memory Stick-Speicher die Abmessungen und das Gewicht eines Kaugummis, und der SD-Speicher von Panasonic hat die Größe und das Gewicht einer Briefmarke. Mittlerweile beträgt das Volumen ihres unbegrenzt speicherbaren Speichers 64–128 MB und sogar 2–8 GB oder mehr.

Neben tragbaren Personalcomputern entstehen Supercomputer, um komplexe Probleme in Wissenschaft und Technik zu lösen – Wetter- und Erdbebenvorhersagen, Raketen- und Flugzeugberechnungen, Kernreaktionen, Entschlüsselung des menschlichen genetischen Codes. Sie verwenden mehrere bis mehrere Dutzend Mikroprozessoren, die parallele Berechnungen durchführen. Der erste Supercomputer wurde 1976 von Seymour Cray entwickelt.

Im Jahr 2002 wurde in Japan der Supercomputer NEC Earth Simulator gebaut, der 35,6 Billionen Operationen pro Sekunde durchführte. Heute ist er der schnellste Supercomputer der Welt.


Reis. 30. Seymour Cray


Reis. 31. Supercomputer Cray-1


Reis. 32. Supercomputer Cray-2

Im Jahr 2005 entwickelte IBM den Supercomputer Blue Gene mit einer Leistung von über 30 Billionen Operationen pro Sekunde. Es enthält 12.000 Prozessoren und hat tausendmal mehr Leistung als das berühmte Deep Blue, mit dem Weltmeister Garry Kasparov 1997 Schach spielte. IBM und Forscher des Schweizer Polytechnikums in Lausanne haben erstmals versucht, das menschliche Gehirn zu modellieren.

Im Jahr 2006 wurden Personalcomputer 25 Jahre alt. Mal sehen, wie sie sich im Laufe der Jahre verändert haben. Der erste von ihnen, ausgestattet mit einem Intel-Mikroprozessor, arbeitete mit einer Taktfrequenz von nur 4,77 MHz und verfügte über 16 KB RAM. Moderne PCs, die mit einem Pentium 4-Mikroprozessor aus dem Jahr 2001 ausgestattet sind, verfügen über eine Taktfrequenz von 3–4 GHz, RAM 512 MB – 1 GB und Langzeitspeicher (Festplatte) mit einer Kapazität von Dutzenden und Hunderten von GB und sogar 1 Terabyte. Derart gigantische Fortschritte wurden in keinem Technologiezweig außer der digitalen Datenverarbeitung beobachtet. Wäre bei der Geschwindigkeitssteigerung der Flugzeuge derselbe Fortschritt erzielt worden, dann hätten sie längst mit Lichtgeschwindigkeit geflogen.

Millionen von Computern werden in nahezu allen Bereichen der Wirtschaft, Industrie, Wissenschaft, Technik, Pädagogik und Medizin eingesetzt.

Die Hauptgründe für diesen Fortschritt sind die ungewöhnlich hohe Mikrominiaturisierungsrate digitaler elektronischer Geräte und Programmierfortschritte, die die „Kommunikation“ normaler Benutzer mit Personalcomputern einfach und bequem gemacht haben.