In dieser Maschinengeneration wurden Halbleiterelemente verwendet. Was ist ein Computer? Generationen von Computern. Ein hoher Integrationsgrad trägt dazu bei, die Packungsdichte elektronischer Geräte zu erhöhen und so deren Zuverlässigkeit zu erhöhen, was zu einer höheren Geschwindigkeit führt

Einführung

1. Erste Computergeneration 1950-1960er Jahre

2. Zweite Computergeneration: 1960-1970er Jahre

3. Dritte Computergeneration: 1970-1980er Jahre

4. Vierte Computergeneration: 1980-1990er Jahre

5. Fünfte Computergeneration: 1990-heute

Abschluss

Einführung

Seit 1950 wurden alle 7–10 Jahre die entwurfstechnischen und softwarealgorithmischen Prinzipien der Konstruktion und Nutzung von Computern radikal aktualisiert. In diesem Zusammenhang ist es legitim, von Computergenerationen zu sprechen. Herkömmlicherweise können jeder Generation 10 Jahre zugeteilt werden.

Computer haben einen langen evolutionären Weg zurückgelegt, sowohl hinsichtlich der Elementbasis (von Lampen bis zu Mikroprozessoren) als auch im Sinne der Entstehung neuer Fähigkeiten, die den Umfang und die Art ihrer Verwendung erweitern.

Die Einteilung von Computern in Generationen ist eine sehr bedingte, lose Klassifizierung von Computersystemen nach dem Entwicklungsgrad von Hard- und Software sowie den Kommunikationsmethoden mit dem Computer.

Zur ersten Computergeneration gehören Maschinen, die um die Wende der 50er Jahre entstanden sind: In den Schaltkreisen wurden Vakuumröhren verwendet. Es gab wenige Befehle, die Steuerung war einfach und die RAM-Kapazität und die Leistungsindikatoren waren niedrig. Die Leistung beträgt etwa 10–20.000 Operationen pro Sekunde. Zur Ein- und Ausgabe dienten Druckgeräte, Magnetbänder, Lochkarten und Lochstreifen.

Zur zweiten Computergeneration gehören die Maschinen, die zwischen 1955 und 1965 entwickelt wurden. Sie verwendeten sowohl Vakuumröhren als auch Transistoren. RAM wurde auf Magnetkernen aufgebaut. Zu dieser Zeit erschienen Magnettrommeln und die ersten Magnetplatten. Es sind sogenannte Hochsprachen entstanden, deren Mittel es ermöglichen, den gesamten Rechenablauf in einer visuellen, leicht verständlichen Form zu beschreiben. Zur Lösung verschiedener mathematischer Probleme ist eine große Anzahl von Bibliotheksprogrammen erschienen. Maschinen der zweiten Generation zeichneten sich durch Software-Inkompatibilität aus, die die Organisation großer Informationssysteme erschwerte. Daher kam es Mitte der 60er Jahre zu einem Übergang zur Entwicklung softwarekompatibler Computer, die auf einer mikroelektronischen Technologiebasis basierten.

Dritte Generation von Computern. Hierbei handelt es sich um Maschinen, die nach den 60er Jahren entwickelt wurden und eine einzige Architektur haben, d. h. Softwarekompatibel. Multiprogramming-Fähigkeiten sind erschienen, d.h. gleichzeitige Ausführung mehrerer Programme. Computer der dritten Generation verwendeten integrierte Schaltkreise.

Vierte Computergeneration. Dies ist die aktuelle Computergeneration, die nach 1970 entwickelt wurde. Maschinen der 4. Generation wurden entwickelt, um moderne Hochsprachen effektiv zu nutzen und den Programmierprozess für den Endbenutzer zu vereinfachen.

In Bezug auf die Hardware zeichnen sie sich durch die Verwendung großer integrierter Schaltkreise als elementare Basis und das Vorhandensein von Hochgeschwindigkeitsspeichergeräten mit wahlfreiem Zugriff und einer Kapazität von mehreren MB aus.

Maschinen der 4. Generation sind Mehrprozessor- und Mehrmaschinenkomplexe, die mit externer Stromversorgung betrieben werden. Speicher und allgemeines Feld ext. Geräte. Die Leistung erreicht mehrere zehn Millionen Operationen pro Sekunde, der Speicher mehrere Millionen Wörter.

Der Übergang zur fünften Computergeneration hat bereits begonnen. Es besteht in einem qualitativen Übergang von der Datenverarbeitung zur Wissensverarbeitung und in der Erhöhung der Grundparameter eines Computers. Der Schwerpunkt wird auf „Intelligenz“ liegen.

Bisher liegt die tatsächliche „Intelligenz“, die die komplexesten neuronalen Netze aufweisen, unter dem Niveau eines Regenwurms. Doch egal wie begrenzt die Fähigkeiten neuronaler Netze heute sind, viele revolutionäre Entdeckungen stehen möglicherweise schon vor der Tür.

1. Erste Computergeneration 1950-1960er Jahre

Logische Schaltkreise wurden mithilfe diskreter Funkkomponenten und elektronischer Vakuumröhren mit einem Glühfaden erstellt. Direktzugriffsspeichergeräte verwendeten Magnettrommeln, akustische Ultraschall-Quecksilber- und elektromagnetische Verzögerungsleitungen sowie Kathodenstrahlröhren (CRTs). Als externe Speichergeräte dienten Laufwerke auf Magnetbändern, Lochkarten, Lochstreifen und Steckschaltern.

Die Programmierung dieser Computergeneration erfolgte im binären Zahlensystem in Maschinensprache, das heißt, die Programme waren streng auf ein bestimmtes Maschinenmodell ausgerichtet und „starben“ mit diesen Modellen zusammen.

Mitte der 1950er Jahre erschienen maschinenorientierte Sprachen wie die Symbolic Coding Languages ​​(SCLs), die es ermöglichten, deren abgekürzte verbale (Buchstaben-)Notation und Dezimalzahlen anstelle der binären Notation von Befehlen und Adressen zu verwenden. 1956 wurde die erste höhere Programmiersprache für mathematische Probleme geschaffen – die Fortran-Sprache, und 1958 die universelle Programmiersprache Algol.

Computer, angefangen bei UNIVAC bis hin zu BESM-2 und den ersten Modellen der Minsk- und Ural-Computer, gehören zur ersten Computergeneration.

2. Zweite Computergeneration: 1960-1970er Jahre

Logikschaltungen wurden auf diskreten Halbleiter- und Magnetelementen (Dioden, Bipolartransistoren, Ringkern-Ferrit-Mikrotransformatoren) aufgebaut. Als gestalterische und technologische Grundlage dienten gedruckte Schaltungen (Platinen aus Getinax-Folie). Weit verbreitet ist das Blockprinzip des Maschinenaufbaus, das den Anschluss einer großen Anzahl unterschiedlicher externer Geräte an die Hauptgeräte ermöglicht, was eine größere Flexibilität bei der Nutzung von Computern ermöglicht. Die Taktfrequenzen elektronischer Schaltkreise sind auf Hunderte Kilohertz gestiegen.

Es wurden externe Laufwerke auf magnetischen Festplatten1 und Disketten verwendet – eine Zwischenstufe des Speichers zwischen Magnetbandlaufwerken und RAM.

1964 erschien der erste Computermonitor – der IBM 2250. Dabei handelte es sich um ein monochromes Display mit einem 12 x 12 Zoll großen Bildschirm und einer Auflösung von 1024 x 1024 Pixeln. Es hatte eine Bildrate von 40 Hz.

Auf Computerbasis erstellte Steuerungssysteme verlangten von Computern eine höhere Leistung und vor allem Zuverlässigkeit. Fehlererkennungs- und -korrekturcodes sowie integrierte Steuerschaltungen sind in Computern weit verbreitet.

In Maschinen der zweiten Generation wurden erstmals Stapelverarbeitungs- und Televerarbeitungsmodi für Informationen implementiert.

Der erste Computer, der teilweise Halbleiterbauelemente anstelle von Vakuumröhren verwendete, war der 1951 entwickelte SEAC-Computer (Standards Eastern Automatic Computer).

In den frühen 60er Jahren begann man in der UdSSR mit der Produktion von Halbleitermaschinen.

3. Dritte Computergeneration: 1970-1980er Jahre

Im Jahr 1958 erfand Robert Noyce den kleinen integrierten Siliziumschaltkreis, der Dutzende Transistoren auf kleinem Raum unterbringen konnte. Diese Schaltkreise wurden später als Small Scale Integrated Circuits (SSI) bekannt. Und bereits in den späten 60er Jahren begann man, integrierte Schaltkreise in Computern einzusetzen.

Die Logikschaltungen von Computern der 3. Generation waren bereits vollständig auf kleinen integrierten Schaltkreisen aufgebaut. Die Taktfrequenzen elektronischer Schaltkreise sind auf mehrere Megahertz gestiegen. Die Versorgungsspannung (Einheit Volt) und die von der Maschine verbrauchte Leistung sind gesunken. Die Zuverlässigkeit und Geschwindigkeit von Computern ist deutlich gestiegen.

Direktzugriffsspeicher verwendeten kleinere Ferritkerne, Ferritplatten und Magnetfilme mit einer rechteckigen Hystereseschleife. Festplatten werden häufig als externe Speichergeräte verwendet.

Es sind zwei weitere Ebenen von Speichergeräten aufgetaucht: Ultra-Random-Access-Speichergeräte auf Triggerregistern, die über enorme Geschwindigkeit, aber geringe Kapazität (Zehnerzahlen) verfügen, und Hochgeschwindigkeits-Cache-Speicher.

Seit der weit verbreiteten Verwendung integrierter Schaltkreise in Computern kann der technologische Fortschritt in der Datenverarbeitung anhand des bekannten Mooreschen Gesetzes beobachtet werden. Einer der Gründer von Intel, Gordon Moore, entdeckte 1965 ein Gesetz, nach dem sich die Anzahl der Transistoren in einem Chip alle 1,5 Jahre verdoppelt.

Aufgrund der erheblichen Komplexität sowohl der Hardware als auch der logischen Struktur von Computern der 3. Generation wurden sie häufig als Systeme bezeichnet.

Somit waren die ersten Computer dieser Generation Modelle von IBM-Systemen (eine Reihe von IBM 360-Modellen) und PDP (PDP 1). In der Sowjetunion wurden in Zusammenarbeit mit den Ländern des Rates für gegenseitige Wirtschaftshilfe (Polen, Ungarn, Bulgarien, Ostdeutschland usw.) Modelle des Einheitlichen Systems (EU) und des Systems der Kleincomputer (SM) entwickelt produziert werden.

Bei Computern der dritten Generation wird großer Wert auf die Reduzierung der Programmierkomplexität, die Effizienz der Programmausführung in Maschinen und die Verbesserung der Kommunikation zwischen Bediener und Maschine gelegt. Dafür sorgen leistungsstarke Betriebssysteme, fortschrittliche Programmierautomatisierung, effiziente Programmunterbrechungssysteme, Time-Sharing-Betriebsmodi, Echtzeit-Betriebsmodi, Multiprogramm-Betriebsmodi und neue interaktive Kommunikationsmodi. Es ist auch ein effektives Videoterminal für die Kommunikation zwischen Bediener und Maschine erschienen – ein Videomonitor oder Display.

Es wird viel Wert darauf gelegt, die Zuverlässigkeit und Zuverlässigkeit des Computerbetriebs zu erhöhen und deren Wartung zu erleichtern. Zuverlässigkeit und Zuverlässigkeit werden durch den weit verbreiteten Einsatz von Codes mit automatischer Fehlererkennung und -korrektur (Hamming-Korrekturcodes und zyklische Codes) gewährleistet.

Die modulare Organisation von Computern und der modulare Aufbau ihrer Betriebssysteme haben zahlreiche Möglichkeiten zur Änderung der Konfiguration von Computersystemen geschaffen. In diesem Zusammenhang ist ein neues Konzept der „Architektur“ eines Computersystems entstanden, das die logische Organisation dieses Systems aus Sicht des Benutzers und Programmierers definiert.

4. Vierte Computergeneration: 1980-1990er Jahre

Ein revolutionäres Ereignis in der Entwicklung der Computertechnologie der dritten Maschinengeneration war die Schaffung großer und sehr großer integrierter Schaltkreise (Large Scale Integration – LSI und Very Large Scale Integration – VLSI), eines Mikroprozessors (1969) und eines Personalcomputers. Seit 1980 wurden fast alle Computer auf Basis von Mikroprozessoren entwickelt. Der beliebteste Computer ist ein Personalcomputer geworden.

Auf der Grundlage von unipolaren Feldeffekt-CMOS-Transistoren mit direkten Verbindungen wurden integrierte Logikschaltungen in Computern entwickelt, die mit kleineren Amplituden elektrischer Spannungen (Volteinheiten) arbeiteten, weniger Strom verbrauchten als bipolare und dadurch die Implementierung von mehr ermöglichten fortgeschrittene Nanotechnologien (damals im Maßstab von Mikrometern).

Der erste Personal Computer wurde im April 1976 von zwei Freunden entwickelt, Steve Jobe (geb. 1955), einem Atari-Mitarbeiter, und Stefan Wozniak (geb. 1950), der bei Hewlett-Packard arbeitete. Basierend auf einem integrierten 8-Bit-Controller einer hartgelöteten Schaltung eines beliebten elektronischen Spiels bauten sie abends in einer Autowerkstatt einen einfachen Apple-Gaming-Computer, der in BASIC programmiert war, was ein voller Erfolg war. Anfang 1977 wurde Apple Co. registriert und die Produktion des weltweit ersten Personal Computers, Apple, begann.

5. Fünfte Computergeneration: 1990-heute

Merkmale der Architektur der modernen Computergeneration werden in diesem Kurs ausführlich besprochen.

Kurz gesagt lässt sich das Grundkonzept eines Computers der fünften Generation wie folgt formulieren:

1. Computer auf hochkomplexen Mikroprozessoren mit paralleler Vektorstruktur, die gleichzeitig Dutzende sequenzieller Programmanweisungen ausführen.

2. Computer mit vielen hundert parallel arbeitenden Prozessoren, die den Aufbau von Daten- und Wissensverarbeitungssystemen, effizienten Netzwerk-Computersystemen, ermöglichen.

Sechste und nachfolgende Computergenerationen

Elektronische und optoelektronische Computer mit massiver Parallelität, neuronaler Struktur und einem verteilten Netzwerk aus einer großen Anzahl (Zehntausende) Mikroprozessoren, die die Architektur neuronaler biologischer Systeme modellieren.

Abschluss

Alle Stadien der Computerentwicklung werden herkömmlicherweise in Generationen eingeteilt.

Die erste Generation wurde auf Basis elektrischer Vakuumlampen entwickelt, die Maschine wurde über eine Fernbedienung und Lochkarten mithilfe von Maschinencodes gesteuert. Diese Computer waren in mehreren großen Metallschränken untergebracht, die ganze Räume einnahmen.

Die dritte Generation erschien in den 60er Jahren des 20. Jahrhunderts. Computerelemente wurden auf Basis von Halbleitertransistoren hergestellt. Diese Maschinen verarbeiteten Informationen unter der Kontrolle von Programmen in Assemblersprache. Daten und Programme wurden über Lochkarten und Lochbänder eingegeben.

Die dritte Generation wurde mit Mikroschaltungen durchgeführt, die Hunderte oder Tausende von Transistoren auf einer Platte enthielten. Ein Beispiel für eine Maschine der dritten Generation ist der ES COMPUTER. Der Betrieb dieser Maschinen wurde über alphanumerische Terminals gesteuert. Zur Steuerung kamen Hochsprachen und Assembler zum Einsatz. Die Eingabe von Daten und Programmen erfolgte sowohl über das Terminal als auch über Lochkarten und Lochstreifen.

Die vierte Generation entstand auf Basis großintegrierter Schaltkreise (LSI). Die prominentesten Vertreter der vierten Computergeneration sind Personalcomputer (PCs). Ein universeller Einzelbenutzer-Mikrocomputer wird als persönlich bezeichnet. Die Kommunikation mit dem Benutzer erfolgte über ein farbiges Grafikdisplay in Hochsprachen.

Die fünfte Generation basiert auf ultragroßen integrierten Schaltkreisen (VLSI), die sich durch die enorme Dichte an Logikelementen auf dem Chip auszeichnen.

Es wird davon ausgegangen, dass in Zukunft die Eingabe von Informationen in einen Computer über Sprache, die Kommunikation mit einer Maschine in natürlicher Sprache, Computer Vision, maschinelle Berührung sowie die Entwicklung intelligenter Roboter und Robotergeräte weit verbreitet sein werden.

Vergleichsmöglichkeiten Computergenerationen
Erste zweite dritte vierte
Zeitspanne 1946 - 1959 1960 - 1969 1970 - 1979 seit 1980
Elementsockel (für Steuergerät, ALU) Elektronische (oder elektrische) Lampen Halbleiter (Transistoren) Integrierte Schaltkreise Großintegrierte Schaltkreise (LSI)
Haupttyp des Computers Groß Klein (Mini) Mikro
Grundlegende Eingabegeräte Fernbedienung, Lochkarte, Lochstreifeneingang Alphanumerische Anzeige und Tastatur hinzugefügt Alphanumerisches Display, Tastatur Farbgrafikdisplay, Scanner, Tastatur
Hauptausgabegeräte Alphanumerisches Druckgerät (ADP), Lochstreifenausgabe Plotter, Drucker
Externer Speicher Magnetbänder, Trommeln, Lochbänder, Lochkarten Magnetplatte hinzugefügt Gestanzte Papierbänder, Magnetplatten Magnetische und optische Datenträger
Wichtige Softwarelösungen Universelle Programmiersprachen, Übersetzer Batch-Betriebssysteme, die Übersetzer optimieren Interaktive Betriebssysteme, strukturierte Programmiersprachen Freundliche Software, Netzwerkbetriebssysteme
Computerbetriebsmodus Einzelprogramm Charge Zeitteilung Persönliche Arbeit und Netzwerkverarbeitung
Zweck der Verwendung eines Computers Wissenschaftliche und technische Berechnungen Technische und wirtschaftliche Berechnungen Management und wirtschaftliche Berechnungen Telekommunikation, Informationsdienste

Tabelle – Hauptmerkmale von Computern verschiedener Generationen


Generation

1

2

3

4

Zeitraum, Jahre

1946 -1960

1955-1970

1965-1980

1980-heute vr.

Elementbasis

Vakuumröhren

Halbleiterdioden und Transistoren

Integrierte Schaltkreise

Sehr große integrierte Schaltkreise

Die Architektur

Von Neumann-Architektur

Multiprogramm-Modus

Lokale Computernetzwerke, gemeinsam genutzte Computersysteme

Multiprozessorsysteme, Personalcomputer, globale Netzwerke

Leistung

10 – 20.000 Operationen/s

100-500.000 Operationen/s

Ungefähr 1 Million Operationen/s

Dutzende und Hunderte Millionen Operationen/s

Software

Maschinensprachen

Betriebssysteme, algorithmische Sprachen

Betriebssysteme, Dialogsysteme, Computergrafiksysteme

Anwendungspakete, Datenbanken und Wissen, Browser

Externe Geräte

Eingabegeräte aus Lochstreifen und Lochkarten,

ATsPU, Fernschreiber, NML, NMB

Videoterminals, Festplatten

NGMD, Modems, Scanner, Laserdrucker

Anwendung

Rechenprobleme

Ingenieurtechnische, wissenschaftliche, wirtschaftliche Aufgaben

ACS, CAD, wissenschaftliche und technische Aufgaben

Verwaltungsaufgaben, Kommunikation, Arbeitsplatzgestaltung, Textverarbeitung, Multimedia

Beispiele

ENIAC, UNIVAC (USA);
BESM - 1,2, M-1, M-20 (UdSSR)

IBM 701/709 (USA)
BESM-4, M-220, Minsk, BESM-6 (UdSSR)

IBM 360/370, PDP -11/20, Cray -1 (USA);
EU 1050, 1066,
Elbrus 1.2 (UdSSR)

Cray T3 E, SGI (USA),
PCs, Server, Workstations verschiedener Hersteller

Im Laufe von 50 Jahren sind mehrere Generationen von Computern entstanden, die sich gegenseitig ersetzt haben. Die rasante Entwicklung von VT auf der ganzen Welt wird nur durch fortschrittliche Elementbasis- und Architekturlösungen bestimmt.
Da es sich bei einem Computer um ein aus Hardware und Software bestehendes System handelt, liegt es nahe, eine Generation als Computermodelle zu verstehen, die durch dieselben technologischen und softwaretechnischen Lösungen (Elementbasis, logische Architektur, Software) gekennzeichnet sind. Mittlerweile erweist es sich in einigen Fällen als sehr schwierig, VT nach Generationen zu klassifizieren, da die Grenze zwischen ihnen von Generation zu Generation immer mehr verschwimmt.
Erste Generation.
Elementbasis - elektronische Röhren und Relais; RAM wurde auf Flip-Flops, später auf Ferritkernen ausgeführt. Zuverlässigkeit – gering, ein Kühlsystem war erforderlich; Computer hatten bedeutende Dimensionen. Leistung – 5 – 30.000 Rechenoperationen/s; Programmierung – in Computercodes (Maschinencode), später erschienen Autocodes und Assembler. Die Programmierung wurde von einem engen Kreis von Mathematikern, Physikern und Elektronikingenieuren durchgeführt. Computer der ersten Generation wurden hauptsächlich für wissenschaftliche und technische Berechnungen verwendet.

Zweite Generation.
Basis für Halbleiterelemente. Zuverlässigkeit und Leistung werden deutlich erhöht, Abmessungen und Stromverbrauch werden reduziert. Entwicklung von Ein-/Ausgabemöglichkeiten und externem Speicher. Eine Reihe fortschrittlicher Architekturlösungen und Weiterentwicklung der Programmiertechnologie – Time-Sharing-Modus und Multiprogramming-Modus (Kombination der Arbeit des Zentralprozessors für die Datenverarbeitung und Ein-/Ausgabekanäle sowie Parallelisierung von Operationen zum Abrufen von Befehlen und Daten aus dem Speicher)
Innerhalb der zweiten Generation zeichnete sich die Unterscheidung der Computer in kleine, mittlere und große Computer deutlich ab. Der Einsatzbereich von Computern zur Lösung von Problemen – Planung, Wirtschaft, Produktionsprozessmanagement etc. – hat sich deutlich erweitert.
Es entstehen automatisierte Kontrollsysteme (ACS) für Unternehmen, ganze Branchen und technologische Prozesse (ACS). Das Ende der 50er Jahre ist durch die Entstehung einer Reihe problemorientierter Hochprogrammiersprachen (HLP) gekennzeichnet: FORTRAN, ALGOL-60 usw. Die Softwareentwicklung wurde durch die Erstellung von Bibliotheken mit Standardprogrammen in verschiedenen Sprachen erreicht Programmiersprachen und für verschiedene Zwecke, Monitore und Dispatcher zur Steuerung der Betriebsmodi eines Computers und zur Planung seiner Ressourcen, die den Grundstein für die Konzepte von Betriebssystemen der nächsten Generation legten.

Dritte Generation.
Elementbasis auf integrierten Schaltkreisen (IC). Es erscheint eine Reihe von Computermodellen, die von Grund auf softwarekompatibel sind und von Modell zu Modell zunehmende Fähigkeiten aufweisen. Die logische Architektur von Computern und deren Peripheriegeräten ist komplexer geworden, was die Funktionalität und Rechenleistung deutlich erweitert hat. Betriebssysteme (OS) werden Teil eines Computers. Viele Aufgaben der Speicherverwaltung, der Ein-/Ausgabegeräte und anderer Ressourcen wurden zunehmend vom Betriebssystem oder direkt von der Computerhardware übernommen. Software wird immer leistungsfähiger: Datenbankverwaltungssysteme (DBMS), Designautomatisierungssysteme (CAD) für verschiedene Zwecke erscheinen, automatisierte Steuerungssysteme und Prozessleitsysteme werden verbessert. Der Erstellung von Anwendungsprogrammpaketen (APP) für verschiedene Zwecke wird große Aufmerksamkeit gewidmet.
Es entwickeln sich Sprachen und Programmiersysteme. Beispiele: - Serie von IBM/360-Modellen, USA, Serienproduktion - seit 1964; -EU-Computer, UdSSR und RGW-Länder seit 1972.
Vierte Generation.
Die Elementbasis bilden hochintegrierte (LSI) und ultragroße (VLSI) integrierte Schaltkreise. Computer wurden bereits für die effiziente Nutzung von Software entwickelt (z. B. UNIX-ähnliche Computer, die am besten in die UNIX-Softwareumgebung eintauchen; Prolog-Maschinen, die sich auf Aufgaben der künstlichen Intelligenz konzentrieren); moderne Kernkraftwerke. Die Verarbeitung von Telekommunikationsinformationen entwickelt sich rasant weiter, indem die Qualität der Kommunikationskanäle mithilfe der Satellitenkommunikation verbessert wird. Es entstehen nationale und transnationale Informations- und Computernetzwerke, die es ermöglichen, über den Beginn der Computerisierung der gesamten menschlichen Gesellschaft zu sprechen.
Die weitere Intellektualisierung der Computertechnologie wird durch die Schaffung weiter entwickelter Mensch-Computer-Schnittstellen, Wissensdatenbanken, Expertensysteme, paralleler Programmiersysteme usw. bestimmt.
Die Elementbasis hat große Erfolge bei der Miniaturisierung ermöglicht und die Zuverlässigkeit und Leistung von Computern erhöht. Es sind Mikro- und Minicomputer aufgetaucht, die die Fähigkeiten mittlerer und großer Computer der vorherigen Generation bei deutlich geringeren Kosten übertreffen. Die Produktionstechnologie VLSI-basierter Prozessoren beschleunigte das Tempo der Computerproduktion und ermöglichte die Einführung von Computern in der breiten Masse der Gesellschaft. Mit dem Aufkommen eines Universalprozessors auf einem einzigen Chip (Mikroprozessor Intel-4004, 1971) begann die Ära des PCs.
Der erste PC kann als Altair-8800 angesehen werden, der 1974 auf Basis des Intel-8080 entwickelt wurde. E.Roberts. P. Allen und W. Gates schufen einen Übersetzer aus der beliebten Basic-Sprache und steigerten damit die Intelligenz des ersten PCs erheblich (sie gründeten später die berühmte Firma Microsoft Inc). Das Gesicht der 4. Generation wird maßgeblich von der Schaffung von Supercomputern bestimmt, die sich durch hohe Leistung (durchschnittliche Geschwindigkeit 50 - 130 Megaflops, 1 Megaflops = 1 Million Operationen pro Sekunde mit Gleitkomma) und nicht-traditionelle Architektur (das Prinzip der Parallelisierung basierend auf) auszeichnen Pipelineverarbeitung von Befehlen). Supercomputer werden zur Lösung von Problemen der mathematischen Physik, Kosmologie und Astronomie, zur Modellierung komplexer Systeme usw. eingesetzt. Da leistungsstarke Computer eine wichtige Schaltrolle in Netzwerken spielen und weiterhin spielen werden, werden Netzwerkprobleme häufig zusammen mit Fragen zu Supercomputern unter inländischen Entwicklungen diskutiert , Supercomputer – Computer können als Maschinen der Elbrus-Serie bezeichnet werden, die Computersysteme PS-2000 und PS-3000, die bis zu 64 Prozessoren enthalten, die durch einen gemeinsamen Befehlsstrom gesteuert werden, und eine Leistung in der Größenordnung von 200 Megaflops erreichen. Gleichzeitig erscheint es angesichts der Komplexität der Entwicklung und Umsetzung moderner Supercomputerprojekte, die intensive Grundlagenforschung auf dem Gebiet der Informatik, elektronischen Technologien, hohen Produktionsstandards und erheblichen finanziellen Kosten erfordern, sehr unwahrscheinlich, dass inländische Projekte durchgeführt werden In absehbarer Zeit werden Supercomputer entstehen, die in ihren Hauptmerkmalen den besten ausländischen Modellen nicht nachstehen.
Es ist zu beachten, dass sich mit dem Übergang zur IP-Technologie für die Computerproduktion der bestimmende Schwerpunkt der Generationen zunehmend von der Elementbasis auf andere Indikatoren verlagert: logische Architektur, Software, Benutzeroberfläche, Anwendungsbereiche usw.
Fünfte Generation.

Dritte Generation von Computern

Die sich schnell entwickelnde Luftfahrt, Raumfahrttechnik und andere Bereiche der Wissenschaft und Technologie erforderten zuverlässige und schnelle Miniatur-Rechengeräte. Daher erforderte die Weiterentwicklung der elektronischen Computertechnologie die Entwicklung neuer Technologien, und diese Technologie ließ nicht lange auf sich warten. Neue Durchbrüche in Leistung, Zuverlässigkeit und Miniaturisierung wurden durch die Technologie integrierter Schaltkreise ermöglicht, die den Übergang zur dritten Computergeneration von 1964 bis 1974 markierte.

Der Einsatz integrierter Schaltkreise bietet eine Reihe von Vorteilen:

1. Die Zuverlässigkeit des Computers hat zugenommen. Die Zuverlässigkeit integrierter Schaltkreise ist um eine Größenordnung höher als die Zuverlässigkeit ähnlicher Schaltkreise, die diskrete Komponenten verwenden. Die Steigerung der Zuverlässigkeit ist in erster Linie auf die Reduzierung der Verbindungen zwischen den Schaltkreisen zurückzuführen, die eines der schwächsten Glieder im Design eines Computers darstellen. Die erhöhte Zuverlässigkeit führte wiederum zu einer deutlichen Reduzierung der Computerbetriebskosten.

2. Durch die Erhöhung der Packungsdichte elektronischer Schaltkreise hat sich die Zeit der Signalübertragung entlang von Leitern verkürzt und dadurch die Geschwindigkeit des Computers erhöht.

3. Die Herstellung integrierter Schaltkreise eignet sich gut für die Automatisierung, was bei der Massenproduktion die Produktionskosten stark senkt und zur Popularisierung und Erweiterung des Anwendungsbereichs von Computern beiträgt.

4. Die hohe Packungsdichte elektronischer Schaltkreise hat die Abmessungen, das Gewicht und den Stromverbrauch von Computern um mehrere Größenordnungen reduziert, was ihren Einsatz in bisher unzugänglichen Bereichen der Wissenschaft und Technik, wie der Luft- und Raumfahrttechnik, ermöglicht.

Trotz der offensichtlichen Vorteile der Verwendung der integrierten Schaltkreistechnologie begann ihr praktischer Einsatz in Computern erst 12 Jahre später, nach der Entwicklung des Konzepts eines integrierten Schaltkreises, das 1952 von Geoffrey Dummer vom britischen Verteidigungsministerium veröffentlicht wurde. Allerdings äußerte Dammer lediglich die Idee, elektronische Elemente in Form eines einzigen Blocks unter Verwendung von Halbleiterschichten aus demselben Material zu schaffen, und gab keine Hinweise darauf, wie mehrere Elemente in der Praxis in einem einzigen Monolithen platziert werden könnten. 1956 versuchte Dammer, seine Ideen in die Realität umzusetzen, doch die von ihm entwickelten Geräte erwiesen sich als wirkungslos.

Jack Kilby von Texas Instruments und Robert Noyce von der kleinen Firma Fairchild Semiconductor gelang es, die skizzierten Ideen in die Praxis umzusetzen.


Im Mai 1958 nahm Jack Kilby eine Stelle bei Texas Instruments an, wo er mit der Entwicklung von Transistoren, Kondensatoren und Widerständen begann (zuvor hatte er bei Centralab gearbeitet und war an der Herstellung von Hörgeräten auf Transistorbasis beteiligt). Eines Tages wurde das Team, für das Jack Kilby arbeitete, damit beauftragt, Möglichkeiten zur Entwicklung alternativer Mikromodule zu erkunden. Es wurden verschiedene Optionen vorgeschlagen, und Kilby, der über das Problem nachdachte, kam zu dem Schluss, dass es für das Unternehmen am rentabelsten wäre, nur Halbleiterelemente zu produzieren, und dass Widerstände und Kondensatoren aus demselben Material wie die aktiven Elemente hergestellt und platziert werden könnten sie in einem einzigen monolithischen Block aus demselben Material. Während er über diese Idee nachdachte, fand Jack die Topologie der Multivibratorschaltung heraus. Also 24. Juli 1958 Die Idee der praktischen Umsetzung eines integrierten Schaltkreises war geboren.

Nachdem er seinen Vorgesetzten seine Ideen dargelegt hatte, wurde Jack damit beauftragt, einen Prototyp zu erstellen, um die Gültigkeit seiner Berechnungen zu beweisen. Dann wurde eine Triggerschaltung aus diskreten Germaniumelementen gebaut. Am 28. August 1958 demonstrierte Jack Kilby Willis Adcock das Layout.

Nach Zustimmung seiner Vorgesetzten begann Kilby mit der Entwicklung eines echten monolithischen integrierten Schaltkreises – eines Phasenverschiebungsoszillators.

Parallel zu Jack Kilby entwickelte Robert Noyce einen integrierten Schaltkreis. Robert gefiel die Technologie zur Herstellung diskreter Elemente wirklich nicht. Er sagte, dass der arbeitsintensive Prozess, einen Siliziumwafer in einzelne Elemente zu schneiden und sie dann zu einem einzigen Schaltkreis zu verbinden, eher sinnlos erschien. Noyce schlug vor, einzelne Transistoren in einem Kristall durch in Sperrrichtung vorgespannte pn-Übergänge voneinander zu isolieren und die Oberfläche mit einem isolierenden Oxid zu bedecken. Der Kontakt zwischen einzelnen Elementen erfolgte über Bereiche, die nach einem speziellen Muster auf der Oberfläche des Mikroschaltkreises in das isolierende Oxid geätzt wurden. Diese Abschnitte wurden durch dünne Aluminiumleitungen miteinander verbunden.

Kilby entwickelte seinen Chip und meldete etwas früher als Noyce ein Patent an. Allerdings war die Technologie von Noyce durchdachter und praktischer und die Anmeldeunterlagen wurden sorgfältiger erstellt. Infolgedessen erhielt Noyce bereits im April 1961 ein Patent für die Erfindung und Kilby erst im Juni 1964.

Die zahlreichen darauffolgenden Prozesse und der Krieg um das Recht, als Erfinder der Technologie gelten zu dürfen, endeten friedlich. Letztendlich bestätigte das Berufungsgericht Noyces Anspruch auf technologischen Vorrang, entschied jedoch, dass Kilby die Entwicklung des ersten funktionierenden Mikroschaltkreises zugeschrieben wurde.

Die Serienproduktion integrierter Schaltkreise begann 1961, gleichzeitig wurde von Texas Instruments im Auftrag der US Air Force der erste experimentelle Computer auf Basis integrierter Schaltkreise entwickelt. Die Entwicklung dauerte 9 Monate und wurde 1961 abgeschlossen. Der Computer hatte nur 15 Befehle, war Unicast, die Taktfrequenz betrug 100 KHz, die Speicherkapazität betrug nur 30 Zahlen, 11 Binärziffern wurden zur Darstellung von Zahlen verwendet, der Stromverbrauch betrug nur 16 W, das Gewicht betrug 585 g, die Belegung Das Volumen betrug 100 Kubikzentimeter.

Die ersten integrierten Schaltkreise hatten eine geringe Dichte, aber im Laufe der Zeit wurde die Technologie für ihre Herstellung verfeinert und die Dichte erhöht. Computer der dritten Generation verwendeten integrierte Schaltkreise niedriger und mittlerer Dichte, die es ermöglichten, Hunderte von Elementen in einem Chip zu kombinieren. Solche Mikroschaltungen könnten als separate Betriebsschaltungen verwendet werden – Register, Decoder, Zähler usw.

Das Aufkommen integrierter Schaltkreise ermöglichte eine Verbesserung des Blockschaltbilds von Computern der zweiten Generation. So wurden eng gekoppelte Steuergeräte (CU) und eine arithmetisch-logische Einheit (ALU) zu einer einzigen Einheit zusammengefasst, die als Prozessor bekannt wurde. Darüber hinaus könnte der Prozessor über mehrere arithmetisch-logische Geräte verfügen, von denen jedes seine eigene Funktion ausführte. Beispielsweise war eine ALU auf die Arbeit mit Ganzzahlen konzentriert, eine andere auf Gleitkommazahlen und eine dritte auf Adressen. Es könnten auch mehrere Steuergeräte vorhanden sein, ein zentrales und mehrere periphere, die zur Steuerung einzelner Computerblöcke dienen.

Oftmals bestanden Computer aus mehreren Prozessoren, was es ermöglichte, die neuen Perspektiven bei der parallelen Problemlösung voll auszuschöpfen.

Bei Computern der dritten Generation ist die Speicherhierarchie bereits klar unterschieden. Der RAM ist in unabhängige Blöcke mit eigenen Steuerungssystemen unterteilt, die parallel arbeiten. Die Struktur des RAM ist in Seiten und Segmente unterteilt. Auch der interne Speicher des Prozessors entwickelt sich weiter – Voraussetzungen für die Einführung von Speicher-Caching werden geschaffen.

Externe Speichergeräte (ESD) werden über einen speziellen Selector Channel Controller (SCC) angeschlossen. Ihre Kapazität und Geschwindigkeit nehmen deutlich zu. Daher wurde im Juni 1973 die IBM 3340-Festplatte als externes Speichergerät auf den Markt gebracht.

Das Laufwerk war versiegelt – dies schützte die Arbeitsflächen der Platten vor Staub und Schmutz, was es ermöglichte, die Köpfe sehr nahe an der magnetischen Oberfläche der Platte zu platzieren. Erstmals wurde das Prinzip eines aerodynamischen Magnetkopfes angewendet, der unter dem Einfluss der aerodynamischen Kraft buchstäblich über der rotierenden Oberfläche der Festplatte schwebte.

All dies ermöglichte eine deutliche Erhöhung der Aufzeichnungsdichte (bis zu 1,7 Mbit pro Quadratzoll) und eine Erhöhung der Kapazität auf 30 MB (auf nicht entfernbaren Medien). Das Laufwerk verfügte außerdem über Wechseldatenträger mit einer Kapazität von 30 MB.

Neben der Verbesserung der logischen Geräte und des Speichers war auch die Modernisierung der Ein-/Ausgabegeräte in vollem Gange. Die Geschwindigkeit neuer Computer erforderte ein schnelleres und zuverlässigeres Dateneingabe-/-ausgabesystem als Lochkartenleser und Fernschreiber. Sie wurden durch Tastaturen, grafische Eingabefelder, Lichtstift-Displays, Plasma-Panels, Rastergrafiksysteme und andere Geräte ersetzt.

Eine große Vielfalt an Peripheriegeräten, ihre relativ hohe Geschwindigkeit und die Notwendigkeit, E/A-Vorgänge vom Rechenprozess zu trennen, führten zur Entwicklung eines speziellen Multiplex-Channel-Controllers (MCC), der es Prozessoren ermöglichte, parallel mit Daten-E/A zu arbeiten. Ö.

Ein verallgemeinertes Blockdiagramm eines Computers der dritten Generation, das das oben Gesagte veranschaulicht, ist im Diagramm unten dargestellt.

Auf dem Diagramm:

UVV – Eingabe-Ausgabe-Gerät;
RAM – ein oder mehrere Speichergeräte mit wahlfreiem Zugriff;
ALU – eine oder mehrere arithmetisch-logische Einheiten;
CU – ein oder mehrere Steuergeräte;
MK - Multiplex-Kanal-Controller (Kanal zum Anschluss langsamer Geräte);
SK - Selector Channel Controller (Kanal zum Anschluss von Hochgeschwindigkeitsgeräten);
ESD ist ein externes Speichergerät.

Durch den Einsatz integrierter Technologien konnten die Kosten für Computer deutlich gesenkt werden, was sofort zu einem Anstieg der Nachfrage führte. Viele Organisationen kauften Computer und betrieben sie erfolgreich. Ein wichtiger Faktor ist der Wunsch nach Standardisierung und der Veröffentlichung ganzer Computerserien, die von Grund auf softwarekompatibel sind.

Es besteht ein enormer Bedarf an Anwendungssoftwareprodukten, und da der Softwaremarkt noch nicht entwickelt ist und es fast unmöglich ist, fertige, zuverlässige und günstige Software zu finden, steigt die Popularität des Programmierens und die Nachfrage danach enorm kompetente Softwareentwickler. Jedes Unternehmen ist bestrebt, seinen eigenen Programmiererstab zu organisieren; es entstehen spezialisierte Teams, die Software entwickeln und danach streben, einen Teil einer noch unerschlossenen Nische im Bereich der schnell wachsenden Computertechnologie zu besetzen.

Der Softwaremarkt entwickelt sich rasant, es entstehen Softwarepakete zur Lösung von Standardproblemen, problemorientierte Programmiersprachen und ganze Softwaresysteme zur Verwaltung des Betriebs von Computern, die später als Betriebssysteme bezeichnet werden.

Die ersten Betriebssysteme tauchten bereits zu Zeiten der Computer der zweiten Generation auf. Deshalb entwickelten Bell Labs 1957 das Betriebssystem BESYS (Bell Operating System). Und 1962 entwickelte General Electric das Betriebssystem GCOS (General Comprehensive Operating System), das für den Betrieb auf Großrechnern konzipiert war. Aber das waren alles nur Voraussetzungen für die Entwicklung wirklich beliebter und gefragter Betriebssysteme. Ende der 1960er-Jahre gab es bereits eine Reihe von Betriebssystemen, die viele der für die Verwaltung eines Computers notwendigen Funktionen implementierten. Insgesamt kamen mehr als hundert verschiedene Betriebssysteme zum Einsatz.

Zu den am weitesten entwickelten Betriebssystemen gehörten:

OS/360, 1964 von IBM zur Verwaltung von Großrechnern entwickelt;

MULTICS- eines der ersten Betriebssysteme mit Time-Sharing-Programmen;

UNIX, 1969 entwickelt und später zu einer ganzen Familie von Betriebssystemen herangewachsen, von denen viele heute zu den beliebtesten gehören.

Der Einsatz von Betriebssystemen vereinfachte die Arbeit mit Computern und trug zur Popularisierung der elektronischen Computertechnologie bei.

Vor dem Hintergrund eines deutlich gestiegenen Interesses am elektronischen Rechnen in den USA, Europa, Japan und anderen Ländern ist in der UdSSR ein Rückgang der Fortschritte in diesem Wissenschaftsbereich zu verzeichnen. So schloss die Sowjetunion 1969 ein Abkommen über die Zusammenarbeit bei der Entwicklung eines einheitlichen Computersystems, dessen Vorbild einer der besten Computer seiner Zeit war – der IBM360. Die Konzentration der UdSSR auf ausländische Errungenschaften führte später zu einem erheblichen Rückstand auf dem Gebiet der Computertechnologie.

Unter den Computern der dritten Generation waren die bedeutendsten Entwicklungen:

IBM-System – 360- eine ganze Computerfamilie, deren Produktion 1964 begann. Alle Modelle der Familie verfügten über ein einziges Befehlssystem und unterschieden sich in der Größe des Arbeitsspeichers und der Leistung. Sie waren universell einsetzbar und konnten sowohl komplexe logische Probleme lösen als auch für wirtschaftliche Berechnungen nützlich sein. Die Vielseitigkeit des Computers spiegelt sich in seinem Namen wider. 360 bedeutet 360 Grad, d.h. ihre Fähigkeit, in jede Richtung zu arbeiten. Die Kosten für die Entwicklung von System-360 beliefen sich auf etwa 5 Milliarden US-Dollar, was doppelt so viel war wie die Ausgaben der Vereinigten Staaten während des Zweiten Weltkriegs für das Manhattan-Projekt, das die Entwicklung einer Atombombe zum Ziel hatte. Das Projekt zur Entwicklung des IBM 360 war nach dem Apollo-Programm das zweitgrößte Projekt. Die IBM 360-Architektur erwies sich als äußerst erfolgreich und bestimmte maßgeblich die Entwicklungsrichtung der Computertechnologie;

PDP8- ein Minicomputer, der am 22. März 1965 von der Digital Equipment Corporation (DEC) entwickelt wurde. Der Begriff „Mini“ ist relativ. Dieser Computer hatte ungefähr die Größe eines Kühlschranks, aber im Vergleich zu anderen Vertretern elektronischer Computer war seine Größe wirklich Miniatur. Dieses Projekt war kommerziell sehr profitabel. Insgesamt wurden etwa 50.000 Exemplare dieses Autos verkauft. Das PDP-8-System hatte viele ähnliche Lösungen – Klone auf der ganzen Welt. So wurden in der UdSSR mehrere Analoga dieses Computers entwickelt: Elektronika-100, Saratov-2 usw.;

Nairi 3- einer der ersten Computer der dritten Generation, die unabhängig in der UdSSR entwickelt wurden. Diese Entwicklung wurde 1970 am Yerevan Research Institute of Mathematical Machines veröffentlicht. Um die Programmierung zu vereinfachen, wurde eine vereinfachte Maschinensprache verwendet. Es war auch möglich, einige Probleme in mathematischer Sprache einzugeben;

ES-COMPUTER- ein einheitliches System elektronischer Computer, basierend auf der erfolgreichen und bewährten Architektur des IBM System-360. Die ersten Autos dieser Serie wurden 1971 in der UdSSR hergestellt. Die Leistung der ersten Proben reichte von 2.750 Operationen pro Sekunde (EC-1010) bis 350.000 Operationen pro Sekunde (EC-1040). Anschließend wurde die Produktivität auf mehrere zehn Millionen Operationen pro Sekunde gesteigert, doch praktisch alle diese Entwicklungen wurden in den 1990er Jahren nach dem Zusammenbruch der UdSSR gestoppt;

ILLIAC 4– einer der produktivsten Computer der dritten Generation. ILLIAC 4 wurde 1972 an der University of Illinois entwickelt und verfügte über eine Pipeline-Architektur bestehend aus 64 Prozessoren. Der Computer sollte ein System partieller Differentialgleichungen lösen und hatte eine Geschwindigkeit von etwa 200 Millionen Operationen pro Sekunde.

Diese Liste lässt sich fortsetzen, aber es ist klar, dass Computer bereits seit langem fest in unserem Leben verankert sind und ihre Weiterentwicklung und Verbesserung nicht aufzuhalten ist. Mit der Entwicklung der Technologie zur Herstellung integrierter Schaltkreise hat die Dichte der Elemente allmählich zugenommen. Supergroße integrierte Schaltkreise tauchten auf, und Computer der dritten Generation, die auf integrierten Schaltkreisen niedriger und mittlerer Dichte basierten, wurden nach und nach durch Computer der vierten Generation auf großen und supergroßen integrierten Schaltkreisen ersetzt.

Literaturverzeichnis

1. Geschichte der Entwicklung der Computertechnologie. Lanina E.P. ISTU, Irkutsk – 2001

2. Entwicklung der Computertechnologie. Apokin I.A. M., „Wissenschaft“, 1974

3. Techie-Look.

4. Methodologe.

6. Vom Abakus zum Computer. R. S. Guter. Verlag „Wissen“, Moskau 1981.

Nach der Schaffung des EDSAC-Modells in England im Jahr 1949 erhielt die Entwicklung von Allzweckcomputern einen starken Impuls, was die Entstehung von Computermodellen anregte, die in einer Reihe von Ländern die erste Generation bildeten. Im Laufe der mehr als 40-jährigen Entwicklung der Computertechnologie (CT) sind mehrere Generationen von Computern entstanden, die sich gegenseitig ersetzten.

Die Computer der ersten Generation verwendeten Vakuumröhren und Relais als elementare Basis; RAM wurde auf Flip-Flops, später auf Ferritkernen ausgeführt; Die Leistung lag in der Regel im Bereich von 5.000 bis 30.000 Rechenoperationen/s; Sie zeichneten sich durch geringe Zuverlässigkeit, erforderliche Kühlsysteme und erhebliche Abmessungen aus. Der Programmierprozess erforderte erhebliches Geschick und gute Kenntnisse der Computerarchitektur und ihrer Softwarefunktionen. Zu Beginn dieser Phase wurde die Programmierung in Computercodes (Maschinencode) verwendet, dann kamen Autocodes und Assembler auf. In der Regel wurden Computer der ersten Generation für wissenschaftliche und technische Berechnungen verwendet, und der Programmiervorgang selbst war eher eine Kunst, die von einem sehr engen Kreis von Mathematikern, Elektrotechnikern und Physikern ausgeübt wurde.

EDSAC-Computer, 1949

Computer der 2. Generation

Die Entwicklung des ersten Transistors in den USA am 1. Juli 1948 war kein Vorbote einer neuen Etappe in der Entwicklung der VT und war in erster Linie mit der Funktechnik verbunden. Anfangs ähnelte es eher einem Prototyp eines neuen elektronischen Geräts, das ernsthafte Forschung und Verfeinerung erforderte. Und bereits 1951 demonstrierte William Shockley den ersten zuverlässigen Transistor. Ihre Kosten waren jedoch recht hoch (bis zu 8 US-Dollar pro Stück), und erst nach der Entwicklung der Siliziumtechnologie sanken ihre Preise stark, was dazu beitrug, den Miniaturisierungsprozess in der Elektronik zu beschleunigen, der auch VT betraf.

Es ist allgemein anerkannt, dass die zweite Generation mit dem Computer RCA-501 beginnt, der 1959 in den USA erschien und auf der Basis von Halbleiterelementen entwickelt wurde. In der Zwischenzeit wurde bereits 1955 ein Bordtransistorcomputer für die Interkontinentalrakete ATLAS entwickelt. Durch die neue Elementtechnologie ist es möglich, die Zuverlässigkeit des VT drastisch zu erhöhen, seine Abmessungen und seinen Stromverbrauch zu reduzieren und die Produktivität deutlich zu steigern. Dies ermöglichte die Schaffung von Computern mit größeren logischen Fähigkeiten und einer größeren Leistung, was zur Erweiterung des Anwendungsbereichs von Computeranwendungen zur Lösung von Problemen der Wirtschaftsplanung, des Produktionsprozessmanagements usw. beitrug. Im Rahmen der zweiten Generation erfolgte die Differenzierung von Computern Die Einteilung in klein, mittel und groß wird immer klarer. Das Ende der 50er Jahre ist durch den Beginn der Phase der Automatisierung der Programmierung gekennzeichnet, die zur Entstehung der Programmiersprachen Fortran (1957), Algol-60 usw. führte.

Computer der 3. Generation

Die dritte Generation ist mit dem Aufkommen von Computern verbunden, die elementar auf integrierten Schaltkreisen (IC) basieren. Im Januar 1959 schuf Jack Kilby den ersten IC, eine dünne Germaniumplatte von 1 cm Länge. Um die Fähigkeiten der integrierten Technologie zu demonstrieren, entwickelte Texas Instruments für die US Air Force einen Bordcomputer mit 587 ICs und einem Volumen von 40 cm3) 150-mal kleiner als ein ähnlicher Computer alter Bauart. Der Kilby-IC wies jedoch eine Reihe erheblicher Mängel auf, die mit der Einführung der planaren ICs von Robert Noyce im selben Jahr beseitigt wurden. Von diesem Moment an trat die IC-Technologie ihren Siegeszug an und eroberte immer mehr neue Bereiche der modernen Elektronik und vor allem der Computertechnologie.

Die Software, die die Funktion des Computers in verschiedenen Betriebsmodi sicherstellt, wird deutlich leistungsfähiger. Entwickelte Datenbankverwaltungssysteme (DBMS) und Designautomatisierungssysteme (CAD) erscheinen; Der Erstellung von Anwendungsprogrammpaketen (APP) für verschiedene Zwecke wird große Aufmerksamkeit gewidmet. Es entstehen weiterhin neue Sprachen und Programmiersysteme und bestehende werden weiterentwickelt.

Computer der 4. Generation

Das Design und die technologische Grundlage des VT der 4. Generation sind großformatige (LSI) und ultragroße (VLSI) integrierte Schaltkreise, die jeweils in den 70er und 80er Jahren entwickelt wurden. Solche ICs enthalten bereits Zehntausende, Hunderttausende und Millionen von Transistoren auf einem Kristall (Chip). Gleichzeitig wurde die LSI-Technologie teilweise in Projekten der Vorgängergeneration (IBM/360, ES Computer Series-2 usw.) eingesetzt. Das wichtigste konzeptionelle Kriterium, anhand dessen Computer der 4. Generation von Computern der 3. Generation unterschieden werden können, besteht darin, dass erstere mit der Erwartung entwickelt wurden, moderne Computer effektiv zu nutzen und den Programmierprozess für den Problemprogrammierer zu vereinfachen. Hardwaremäßig zeichnen sie sich durch den umfassenden Einsatz von IC-Technologie und Hochgeschwindigkeitsspeichergeräten aus. Als bekannteste Computerserie der vierten Generation kann der IBM/370 angesehen werden, der im Gegensatz zur ebenso bekannten IBM/360-Serie der 3. Generation über ein weiter entwickeltes Befehlssystem und einen breiteren Einsatz von Mikroprogrammierung verfügt. In den älteren Modellen der 370er-Serie wurde ein virtuelles Speichergerät implementiert, das es dem Benutzer ermöglicht, den Anschein von unbegrenzten RAM-Ressourcen zu erwecken.

Das Phänomen des Personal Computers (PC) geht auf die Entwicklung des ersten Minicomputers, des PDP-8, im Jahr 1965 zurück, der als Ergebnis der Universalisierung eines speziellen Mikroprozessors zur Steuerung eines Kernreaktors entstand. Die Maschine gewann schnell an Popularität und wurde zum ersten serienmäßig hergestellten Computer dieser Klasse; Anfang der 70er Jahre überstieg die Anzahl der Autos 100.000 Einheiten. Ein weiterer wichtiger Schritt war der Übergang vom Mini- zum Mikrocomputer; Diese neue Strukturebene von VT nahm Anfang der 70er Jahre Gestalt an, als das Aufkommen von LSI die Schaffung eines universellen Prozessors auf einem einzigen Chip ermöglichte. Der erste Mikroprozessor Intel-4004 wurde 1971 entwickelt und enthielt 2250 Elemente, und der erste universelle Mikroprozessor Intel-8080, der 1974 als Standard für die Mikrocomputertechnologie galt, enthielt bereits 4500 Elemente und diente als Grundlage für die Erstellung des erste PCs. 1979 kam einer der leistungsstärksten und vielseitigsten 16-Bit-Mikroprozessoren Motorolla-68000 mit 70.000 Elementen auf den Markt, und 1981 kam Hewlett Packards erster 32-Bit-Mikroprozessor mit 450.000 Elementen auf den Markt.

PC Altair-8800

Der erste PC kann als Altair-8800 angesehen werden, der 1974 von Edward Roberts auf Basis des Intel-8080-Mikroprozessors entwickelt wurde. Der Computer wurde verschickt, kostete nur 397 US-Dollar und war mit Peripheriegeräten erweiterbar (nur 256 Byte RAM!!!). Für den Altair-8800 haben Paul Allen und Bill Gates einen Übersetzer aus der beliebten Basic-Sprache entwickelt und damit die Intelligenz des ersten PCs deutlich gesteigert (sie gründeten später die mittlerweile berühmte Microsoft Inc.). Die Ausstattung eines PCs mit einem Farbmonitor führte zur Entwicklung eines konkurrierenden PC-Modells, des Z-2; ein Jahr nach dem Erscheinen des ersten Altair-8800-PCs stiegen mehr als 20 verschiedene Unternehmen und Firmen in die PC-Produktion ein; Die PC-Industrie nahm Gestalt an (PC-Produktion selbst, deren Verkauf, periodische und nicht periodische Veröffentlichungen, Ausstellungen, Konferenzen usw.). Und bereits 1977 wurden drei PC-Modelle Apple-2 (Apple Computers), TRS-80 (Tandy Radio Shark) und PET (Commodore) in Massenproduktion gebracht, aus denen Apple, das zunächst im Wettbewerb zurückblieb, bald hervorging Marktführer in der PC-Produktion (sein Apple-2-Modell war ein großer Erfolg). 1980 ging die Apple Corporation mit dem größten Aktienkapital und einem Jahreseinkommen von 117 Millionen US-Dollar an die Wall Street.

Doch um den Massenmarkt nicht zu verlieren, begann IBM bereits 1981 mit der Produktion seiner mittlerweile weithin bekannten PC-Serien IBM PC/XT/AT und PS/2, die eine neue Ära der Personalcomputer-Technologie einläuteten. Der Eintritt des Riesen IBM in die Arena der PC-Industrie stellt die PC-Produktion auf eine industrielle Basis, was es ermöglicht, eine Reihe wichtiger Probleme für den Benutzer zu lösen (Standardisierung, Vereinheitlichung, entwickelte Software usw.), auf die die Große Aufmerksamkeit schenkte das Unternehmen bereits im Rahmen der Produktion der IBM/360-Serie und IBM/370. Wir können vernünftigerweise davon ausgehen, dass in der kurzen Zeitspanne, die vom Debüt des Altair-8800 bis zum IBM-PC verging, mehr Menschen dem VT beigetreten sind als in der gesamten langen Zeitspanne – von Babages Analytical Engine bis zur Erfindung der ersten IPs.

Der erste Computer, der die Supercomputerklasse selbst eröffnete, kann als Modell Amdahl 470V16 angesehen werden, das 1975 entwickelt wurde und mit der IBM-Serie kompatibel ist. Die Maschine nutzte ein effektives Parallelisierungsprinzip basierend auf der Pipeline-Verarbeitung von Befehlen und die Elementbasis nutzte LSI-Technologie. Derzeit umfasst die Klasse der Supercomputer Modelle mit einer Durchschnittsgeschwindigkeit von mindestens 20 Megaflops (1 Megaflops = 1 Million Gleitkommaoperationen pro Sekunde). Das erste Modell mit einer solchen Leistung war der weitgehend einzigartige ILLIAC-IV-Computer, der 1975 in den USA entwickelt wurde und eine Höchstgeschwindigkeit von etwa 50 Megaflops hatte. Dieses Modell hatte großen Einfluss auf die spätere Entwicklung von Supercomputern mit Matrixarchitektur. Eine helle Seite in der Geschichte der Supercomputer ist mit der Cray-Serie von S. Cray verbunden, deren erstes Modell, Cray-1, 1976 entwickelt wurde und eine Spitzengeschwindigkeit von 130 Megaflops hatte. Die Architektur des Modells basierte auf dem Pipeline-Prinzip der Vektor- und Skalardatenverarbeitung mit einer elementaren Basis auf VLSI. Dieses Modell legte den Grundstein für die Klasse der modernen Supercomputer. Es ist anzumerken, dass der Erfolg des Modells trotz einer Reihe interessanter architektonischer Lösungen hauptsächlich auf erfolgreiche technologische Lösungen zurückzuführen ist. Nachfolgende Modelle Cray-2, Cray hatte eine Spitzenleistung von etwa 50 Gigaflops.

Um den Ausflug in die Geschichte der modernen Militärtechnik mit dem einen oder anderen Detail ihrer einzelnen Etappen abzuschließen, sollten noch einige wichtige Bemerkungen gemacht werden. Erstens gibt es einen immer reibungsloseren Übergang von einer Computergeneration zur anderen, wenn die Ideen der neuen Generation bis zu einem gewissen Grad ausgereift sind und sogar in der vorherigen Generation umgesetzt werden. Dies macht sich insbesondere beim Übergang zur IC-Technologie zur Herstellung von VT bemerkbar, wenn sich der bestimmende Schwerpunkt der Generationen zunehmend von der Elementbasis auf andere Indikatoren verlagert: logische Architektur, Software, Benutzeroberfläche, Anwendungsbereiche usw. Die unterschiedlichsten VT erscheint, deren Merkmale nicht in traditionelle Klassifizierungsrahmen passen; Man hat den Eindruck, dass wir am Anfang einer Art Universalisierung der Computertechnologie stehen, wenn alle Klassen danach streben, ihre Rechenkapazitäten zu verbessern. Viele Elemente der fünften Generation sind bis zu einem gewissen Grad noch heute charakteristisch.

Die Entwicklung von Computern gliedert sich in mehrere Perioden. Die Computergenerationen jeder Epoche unterscheiden sich hinsichtlich ihrer elementaren Basis und Software.

Erste Computergeneration

Die erste Computergeneration (1945-1958) basierte auf Vakuumröhren – Dioden und Trioden. Die meisten Maschinen der ersten Generation waren Versuchsgeräte und wurden gebaut, um bestimmte theoretische Prinzipien zu testen. Der Einsatz der Vakuumröhrentechnologie, der Einsatz von Speichersystemen auf Quecksilberverzögerungsleitungen, Magnettrommeln und Kathodenstrahlröhren (Williams-Röhren) machten ihren Betrieb sehr unzuverlässig. Darüber hinaus waren solche Computer schwer und nahmen große Flächen ein, manchmal sogar ganze Gebäude. Für die Dateneingabe und -ausgabe wurden Lochstreifen und Lochkarten, Magnetbänder und Druckgeräte verwendet.

Das Konzept eines gespeicherten Programms wurde umgesetzt. Die Software der Computer der 1. Generation bestand hauptsächlich aus Standard-Unterprogrammen; ihre Geschwindigkeit lag zwischen 10.000 und 20.000 Operationen. /Sek.

Maschinen dieser Generation: ENIAC (USA), MESM (UdSSR), BESM-1, M-1, M-2, M-Z, „Strela“, „Minsk-1“, „Ural-1“, „Ural-2“ ", "Ural-3", M-20, "Setun", BESM-2, "Hrazdan", IBM - 701, verbrauchten viel Strom und bestanden aus sehr vielen Vakuumröhren. Beispielsweise bestand die Strela-Maschine aus 6.400 Vakuumröhren und 60.000 Halbleiterdioden. Ihre Leistung überschritt nicht 2-3.000 Vorgänge pro Sekunde, der Arbeitsspeicher überschritt nicht 2 KB. Nur die M-2-Maschine (1958) verfügte über 4 KB RAM und eine Geschwindigkeit von 20.000 Operationen pro Sekunde.

Zweite Generation von Computern

Computer der 2. Generation wurden zwischen 1959 und 1967 entwickelt. Das Hauptelement waren nicht mehr Vakuumröhren, sondern Halbleiterdioden und Transistoren, und Magnetkerne und Magnettrommeln, die entfernten Vorfahren moderner Festplatten, wurden als Speichergeräte verwendet. Computer sind zuverlässiger geworden, ihre Leistung ist gestiegen, der Energieverbrauch ist gesunken und die Gesamtabmessungen der Maschinen sind kleiner geworden.

Mit dem Aufkommen des Speichers auf Magnetkernen verringerte sich sein Betriebszyklus auf mehrere zehn Mikrosekunden. Das Hauptprinzip der Struktur ist die Zentralisierung. Es erschienen Hochleistungsgeräte für die Arbeit mit Magnetbändern und Speichergeräten auf Magnetplatten. Darüber hinaus wurde es möglich, in algorithmischen Sprachen zu programmieren. Die ersten Hochsprachen wurden entwickelt – Fortran, Algol, Cobol. Die Leistung von Maschinen der 2. Generation hat bereits 100.000 bis 5.000.000 Operationen erreicht. /Sek.

Beispiele für Maschinen der zweiten Generation: BESM-6, BESM-4, Minsk-22 – sollen wissenschaftliche, technische und wirtschaftliche Planungsprobleme lösen; Minsk-32 (UdSSR), M-40-Computer, - 50 - für Raketenabwehrsysteme; Ural - 11, - 14, - 16 - Allzweckcomputer mit Schwerpunkt auf der Lösung technischer und technischer Probleme.

Dritte Generation von Computern

Die Computer der dritten Generation (1968–1973) verwendeten integrierte Schaltkreise. Die Entwicklung integrierter Schaltkreise in den 60er Jahren – ganze Geräte und Baugruppen aus Dutzenden und Hunderten von Transistoren auf einem einzigen Halbleiterkristall (heute Mikroschaltkreise genannt) – führte zur Entwicklung von Computern der 3. Generation. Gleichzeitig erschien der Halbleiterspeicher, der noch heute in Personalcomputern als Arbeitsspeicher verwendet wird. Der Einsatz integrierter Schaltkreise hat die Leistungsfähigkeit von Computern erheblich erweitert.

Jetzt ist der Zentralprozessor in der Lage, parallel zu arbeiten und zahlreiche Peripheriegeräte zu steuern. Computer könnten mehrere Programme gleichzeitig abarbeiten (Prinzip des Multiprogramming). Durch die Umsetzung des Multiprogramming-Prinzips wurde es möglich, im Time-Sharing-Modus im interaktiven Modus zu arbeiten. Vom Computer entfernte Benutzer erhielten die Möglichkeit, unabhängig voneinander schnell mit der Maschine zu interagieren.

Computer wurden auf der Grundlage integrierter Schaltkreise mit niedrigem Integrationsgrad (MIS – 10–100 Komponenten pro Chip) und mittlerem Integrationsgrad (SIS – 10–1000 Komponenten pro Chip) entwickelt. Es entstand die Idee, eine Computerfamilie mit der gleichen Architektur zu entwerfen, die hauptsächlich auf Software basierte, und wurde auch umgesetzt. In den späten 60er Jahren erschienen Minicomputer. 1971 erschien der erste Mikroprozessor. Die Geschwindigkeit von Computern der 3. Generation hat etwa 1 Million Operationen erreicht. /Sek.

In diesen Jahren erreichte die Computerproduktion einen industriellen Maßstab. Beginnend mit den Computern der 3. Generation ist die Entwicklung serieller Computer zur Tradition geworden. Obwohl sich Maschinen derselben Serie in ihren Fähigkeiten und ihrer Leistung stark voneinander unterschieden, waren sie informativ sowie software- und hardwaremäßig kompatibel. Am weitesten verbreitet war in diesen Jahren die System/360-Familie von IBM. Die CMEA-Länder produzierten Computer einer einzigen Serie „ES Computer“: ES-1022, ES-1030, ES-1033, ES-1046, ES-1061, ES-1066 usw. Zu den Computern dieser Generation gehört auch „IVM-370“. ", "Elektronik-100/25", "Elektronik-79", "SM-3", "SM-4" usw.

Für Computerserien wurde die Software stark erweitert (Betriebssysteme, höhere Programmiersprachen, Anwendungsprogramme etc.). Im Jahr 1969 erschienen gleichzeitig das Betriebssystem Unix und die Programmiersprache C, die einen großen Einfluss auf die Softwarewelt hatten und bis heute ihre führende Position behaupten.

Vierte Computergeneration

In Computern der vierten Generation (1974–1982) steigerte der Einsatz hochintegrierter Schaltkreise (LSI – 1000–100.000 Komponenten pro Chip) und ultragroßer integrierter Schaltkreise (VLSI – 100.000–1.000.000 Komponenten pro Chip) deren Leistung bis zu Dutzenden und Hunderten von Millionen op. /Sek.

Als Beginn dieser Generation gilt das Jahr 1975 – Amdahl Corp. veröffentlichte sechs AMDAHL 470 V/6-Computer, die LSI als elementare Basis verwendeten. Es wurden Hocauf integrierten Schaltkreisen eingesetzt – MOS-RAM mit einer Kapazität von mehreren Megabyte. Wenn das Gerät ausgeschaltet ist, werden die im MOS-RAM enthaltenen Daten durch automatische Übertragung auf die Festplatte gespeichert. Wenn die Maschine eingeschaltet wird, beginnt das System mit der Verwendung eines im ROM (Nur-Lese-Speicher) gespeicherten Startprogramms, das das Betriebssystem und die residente Software in den MOS-RAM entlädt.

Die Entwicklung von Computern der 4. Generation verlief in zwei Richtungen: 1. Richtung – die Schaffung von Supercomputern – Komplexen von Multiprozessormaschinen. Die Geschwindigkeit solcher Maschinen erreicht mehrere Milliarden Operationen pro Sekunde. Sie sind in der Lage, riesige Informationsmengen zu verarbeiten. Dazu gehören die Komplexe ILLIAS-4, CRAY, CYBER, Elbrus-1, Elbrus-2 usw. Die Multiprozessor-Rechenkomplexe (MCC) Elbrus-2 wurden in der Sowjetunion aktiv in Bereichen eingesetzt, die ein großes Rechenvolumen erforderten, bevor alles in der Verteidigungsindustrie.

2. Richtung – Weiterentwicklung auf Basis von LSI- und VLSI-Mikrocomputern und Personal Computern (PC). Die ersten Vertreter dieser Maschinen sind Computer von Apple, IBM – PC (XT, AT, PS/2), inländischen „Iskra“, „Electronics“, „Mazovia“, „Agat“, „ES-1840“, „ES- 1841“ usw. Ab dieser Generation wurden Computer als Computer bezeichnet. Ergänzt wird die Software durch Datenbanken und Banken.

Fünfte Computergeneration

Der Computer der fünften Generation ist der Computer der Zukunft. Das Entwicklungsprogramm für die sogenannte fünfte Computergeneration wurde 1982 in Japan verabschiedet. Man ging davon aus, dass bis 1991 grundlegend neue Computer entstehen würden, die sich auf die Lösung von Problemen der künstlichen Intelligenz konzentrieren würden. Mit Hilfe der Prolog-Sprache und Innovationen im Computerdesign sollte eines der Hauptprobleme dieses Zweigs der Informatik – das Problem der Speicherung und Verarbeitung von Wissen – annähernd gelöst werden. Kurz gesagt, für Computer der fünften Generation wäre es nicht nötig, Programme zu schreiben, aber es würde ausreichen, in „fast natürlicher“ Sprache zu erklären, was von ihnen verlangt wird.

Es wird davon ausgegangen, dass ihre elementare Basis nicht VLSI sein wird, sondern auf ihrer Basis erstellte Geräte mit Elementen künstlicher Intelligenz. Um den Speicher und die Geschwindigkeit zu erhöhen, werden Fortschritte in der Optoelektronik und bei Bioprozessoren genutzt.

Für Computer der fünften Generation werden völlig andere Aufgaben gestellt als bei der Entwicklung aller bisherigen Computer. Standen die Entwickler von Computern der 1. bis 4. Generation vor Aufgaben wie der Steigerung der Produktivität im Bereich numerischer Berechnungen und der Erzielung einer großen Speicherkapazität, so besteht die Hauptaufgabe der Computerentwickler der 5. Generation in der Schaffung künstlicher Intelligenz die Maschine (die Fähigkeit, aus den präsentierten Fakten logische Schlussfolgerungen zu ziehen), die Entwicklung der „Intellektualisierung“ von Computern – Beseitigung der Barriere zwischen Mensch und Computer.

Leider wiederholte das japanische Computerprojekt der fünften Generation das tragische Schicksal der frühen Forschung auf dem Gebiet der künstlichen Intelligenz. Mehr als 50 Milliarden Yen an Investitionen wurden verschwendet, das Projekt wurde eingestellt und die entwickelten Geräte erwiesen sich als nicht leistungsfähiger als massenproduzierte Systeme dieser Zeit. Die im Rahmen des Projekts durchgeführten Forschungsarbeiten und die gesammelten Erfahrungen mit Wissensdarstellung und parallelen Inferenzmethoden haben jedoch erheblich zum Fortschritt im Bereich der Systeme der künstlichen Intelligenz im Allgemeinen beigetragen.

Schon jetzt sind Computer in der Lage, Informationen aus handgeschriebenen oder gedruckten Texten, aus Formularen, aus der menschlichen Stimme wahrzunehmen, den Benutzer anhand der Stimme zu erkennen und von einer Sprache in eine andere zu übersetzen. Dies ermöglicht allen Benutzern die Kommunikation mit Computern, auch denen, die keine besonderen Kenntnisse auf diesem Gebiet haben.

Viele der Fortschritte, die künstliche Intelligenz gemacht hat, werden in der Industrie und der Geschäftswelt genutzt. Expertensysteme und neuronale Netze werden effektiv für Klassifizierungsaufgaben (SPAM-Filterung, Textkategorisierung usw.) eingesetzt. Genetische Algorithmen dienen gewissenhaft dem Menschen (z. B. zur Optimierung von Portfolios bei Investitionstätigkeiten), der Robotik (Industrie, auch Multi-Agenten-Systemen). Andere Bereiche der künstlichen Intelligenz, beispielsweise verteilte Wissensrepräsentation und Problemlösung im Internet, sind es nicht schlafend: Dank ihnen ist in den nächsten Jahren eine Revolution in einer Reihe von Bereichen menschlichen Handelns zu erwarten.

In der gegenwärtigen Phase ist der Remote-Verlauf des Computergeräts vorhanden

Der Bedarf an schnelleren, günstigeren und vielseitigeren Prozessoren zwingt die Hersteller dazu, die Anzahl der darin enthaltenen Transistoren ständig zu erhöhen. Dieser Prozess ist jedoch nicht endlos. Das von Gordon Moore 1973 vorhergesagte exponentielle Wachstum dieser Zahl wird immer schwieriger aufrechtzuerhalten. Experten sagen, dass dieses Gesetz nicht mehr gelten wird, sobald die Gates von Transistoren, die den Informationsfluss im Chip regulieren, der Wellenlänge des Elektrons entsprechen (in Silizium, auf dem derzeit produziert wird, sind es etwa 10). Nanometer). Und das wird irgendwann zwischen 2010 und 2020 passieren. Da Computerarchitekturen immer ausgefeilter werden und sich der physischen Grenze nähern, steigen die Kosten für das Entwerfen, Herstellen und Testen von Chips. Somit wird die Stufe der evolutionären Entwicklung früher oder später durch revolutionäre Veränderungen ersetzt.

Durch den Wettlauf um Produktivitätssteigerungen entstehen viele Probleme. Am schlimmsten ist die Überhitzung bei ultradichten Verpackungen, die durch eine deutlich kleinere Wärmeübertragungsfläche verursacht wird. Die Energiekonzentration in modernen Mikroprozessoren ist extrem hoch. Aktuelle Strategien zur Ableitung der erzeugten Wärme, wie z. B. die Reduzierung der Versorgungsspannung oder die gezielte Aktivierung nur der notwendigen Teile in Mikroschaltungen, sind ohne aktive Kühlung wirkungslos.

Mit zunehmender Größe der Transistoren wurden die Isolierschichten immer dünner und damit auch ihre Zuverlässigkeit geringer, da Elektronen durch dünne Isolatoren dringen können (Tunneleffekt). Dieses Problem kann durch eine Reduzierung der Steuerspannung gelöst werden, jedoch nur bis zu bestimmten Grenzen.

Die Hauptvoraussetzung für die Steigerung der Prozessorleistung sind heute Parallelitätsmethoden. Wie Sie wissen, verarbeitet ein Mikroprozessor eine Folge von Anweisungen (Befehlen), aus denen ein bestimmtes Programm besteht. Wenn Sie die parallele (also gleichzeitige) Ausführung von Anweisungen organisieren, wird die Gesamtleistung deutlich gesteigert. Das Problem der Parallelität wird durch Methoden der Pipeline-Berechnung gelöst, die eine superskalare Architektur und Verzweigungsvorhersage nutzen. Multi-Core-Architektur. Diese Architektur beinhaltet die Integration mehrerer einfacher Mikroprozessorkerne auf einem einzigen Chip. Jeder Kern führt seinen eigenen Befehlsstrom aus. Jeder Mikroprozessorkern ist wesentlich einfacher als ein Multithread-Prozessorkern, was das Chip-Design und -Testen erleichtert. Doch inzwischen verschlimmert sich das Speicherzugriffsproblem und Compiler müssen ersetzt werden.

Multithread-Prozessor. Diese Prozessoren ähneln in ihrer Architektur Tracern: Der gesamte Chip ist in Verarbeitungselemente unterteilt, die an einen superskalaren Mikroprozessor erinnern. Im Gegensatz zu einem Trace-Prozessor verarbeitet hier jedes Element Anweisungen von verschiedenen Threads innerhalb eines Taktzyklus und erreicht so Parallelität auf Thread-Ebene. Natürlich hat jeder Thread seinen eigenen Programmzähler und Registersatz.

„Fliesen“-Architektur. Befürworter sind der Meinung, dass Software direkt in die Hardware kompiliert werden sollte, da dies eine maximale Parallelität gewährleistet. Dieser Ansatz erfordert recht komplexe Compiler, die noch nicht erstellt wurden. Der Prozessor besteht in diesem Fall aus vielen „Kacheln“, von denen jede über einen eigenen RAM verfügt und mit anderen „Kacheln“ in einer Art Gitter verbunden ist, deren Knoten ein- und ausgeschaltet werden können. Die Reihenfolge, in der Anweisungen ausgeführt werden, wird von der Software festgelegt.

Mehrgeschossige Architektur. Hier geht es nicht um die logische, sondern um die physikalische Struktur. Die Idee ist, dass die Chips vertikale „Stapel“ von Mikroschaltungen enthalten würden, die mit der Dünnschichttransistortechnologie hergestellt werden, die aus der Herstellung von TFT-Displays stammt. In diesem Fall werden relativ lange horizontale Verbindungen in kurze vertikale Verbindungen umgewandelt, was die Signallatenz reduziert und die Prozessorleistung erhöht. Die Idee „dreidimensionaler“ Chips wurde bereits in Form von Arbeitsmustern achtstöckiger Speicherchips umgesetzt. Gut möglich, dass es auch für Mikroprozessoren akzeptabel ist und in naher Zukunft alle Mikrochips nicht nur horizontal, sondern auch vertikal erweitert werden.