1.1Digitaltechnik und die mikroelektronische Revolution
Obgleich es aus dem alltäglichen Umgang mit technischen Geräten vielleicht nicht erkennbar ist, so hat die mikroelektronische Realisierung von digitalen Schaltungen die technische Entwicklung in den letzten fünfzig Jahren in dramatischer Weise vorangetrieben und ein Ende dieser Entwicklung ist derzeit nicht zu sehen. Das Beispiel Internet zeigt, dass die Digitaltechnik und die Mikroelektronik – Technologien die das Internet erst ermöglichten – auch erhebliche Einflüsse auf unsere Gesellschaft haben. Von einer revolutionären Entwicklung durch die Mikroelektronik zu sprechen ist daher nicht übertrieben. Wir wollen im Folgenden anhand eines kurzen historischen Exkurses aufzeigen, dass die enorme Weiterentwicklung der Leistungsfähigkeit von digitalen Computern immer geprägt war durch die technischen Realisierungsmöglichkeiten – von mechanischen Lösungen über Relais, Vakuumröhren und Transistoren hin zu mikroelektronischen Realisierungen.
Der Begriff „digital“ („digitus“ <lat.>: der Finger) bedeutet, dass ein Signal oder ein Zeichen nur endlich viele diskrete Werte annehmen kann, im Unterschied zu analogen Signalen. Kann das Signal oder das Zeichen nur zwei Werte (z. B. 0 und 1) annehmen, so spricht man von einem binären, digitalen Signal [81] oder von einem Binärzeichen (engl.: Bit, Binary Digit). Die Entwicklung der Digitaltechnik ist eng mit der Entwicklung von Rechenmaschinen – im Englischen als „Computer“ bezeichnet (to compute = berechnen) – verknüpft. Erste mechanische Rechenmaschinen wurden schon im 17. Jahrhundert von Blaise Pascal, Wilhelm Schickart oder Gottfried Wilhelm von Leibniz entwickelt. Charles Babbage machte im frühen 19. Jahrhundert mit der so genannten „Analytical Engine“ einen ersten Vorschlag für einen frei programmierbaren Computer, welcher wesentliche Bestandteile enthielt die auch in modernen Computern vorhanden sind. Zu diesem Zeitpunkt mussten Rechenmaschinen mechanisch realisiert werden, da die Elektrotechnik noch am Anfang ihrer Entwicklung stand. Babbage war seiner Zeit voraus: Die Analytical Engine war aufgrund ihrer Komplexität mechanisch nicht realisierbar.
Erst durch die Entwicklung der Relaistechnik in den zwanziger Jahren des vergangenen Jahrhunderts konnte Konrad Zuse 1936 in Deutschland eine erste elektromechanische Realisierung eines Rechners vorstellen. Auch in den USA wurde 1937 von Howard Aiken an der Harvard University eine elektromechanische Version eines Rechners (Harvard Mark I) realisiert. Während die Harvard Mark I noch im Dezimalsystem rechnete, so wurden die Rechner ab den vierziger Jahren weitgehend im dualen Zahlensystem implementiert. Rechnen im Dualsystem bedeutet, dass für die Implementierung der Arithmethik nur binäre Zeichen benutzt werden und es sich um ein Stellenwertsystem zur Basis 2 – das Dezimalsystem verwendet die Basis 10 – handelt. Einer der wesentlichen Gründe, warum man zum Dualsystem überging, lag in der Tatsache begründet, dass die Arithmetik im Dualsystem einfacher zu realisieren ist.
Die vierziger Jahre waren auch gekennzeichnet durch das Ersetzen der Relais durch elektronische Vakuumröhren, welche ein schnelleres Schalten ermöglichten und damit eine höhere Leistungsfähigkeit der Rechner. Nicht nur die Arithmetik, sondern auch die Informationsspeicherung und die Steuerschaltungen wurden digital mit einer zweiwertigen Logik – also binär – realisiert. Die digitale, binäre Implementierung hat gegenüber einer analogen Realisierung den wesentlichen Vorteil, dass die elektronischen Schaltungen sehr viel störunempfindlicher werden. Die Störunempfindlichkeit beruht auf der Tatsache, dass die elektronische Schaltung nur zwei diskrete Schaltzustände, nämlich ”0“ und ”1“, realisieren muss. Die mathematische Grundlage der Digitaltechnik ist die von „George „Boole 1847 eingeführte „Boole’sche Algebra“. Sie wurde 1937 von Claude Shannon in die so genannte „Schaltalgebra“ umgesetzt, welche noch heute die Grundlage für die Realisierung von hochkomplexen Schaltungen mit Milliarden von Transistoren ist.
Problematisch an der Röhrentechnik in den vierziger Jahren war allerdings die Tatsache, dass die Rechner für heutige Verhältnisse gigantische Ausmaße und einen enormen Energiebedarf hatten. Der von Eckert und Mauchley [57] 1945 an der Universität von Pennsylvania entwickelte ENIAC (Electronic Numerical Integrator and Computer) benötigte beispielsweise 18.000 Röhren und hatte einen Platzbedarf von 1.400 qm. Die benötigte elektrische Leistung betrug 140 kW (!) und ergab dabei eine nach heutigen Maßstäben aüßerst geringe Rechenleistung von 5.000 Additionen pro Sekunde, was man heute als 0,005 MIPS (MIPS: Million Instructions per Second) bezeichnen würde. Während heutige Mikroprozessoren aus einem Watt zugeführter elektrischer Leistung Rechenleistungen von mehr als tausend MIPS gewinnen (1.000 MIPS /Watt), so brachte es die ENIAC nur auf umgerechnet etwa 3,6 · 10−8 MIPS /Watt. Dieser enorme Unterschied in der Energieeffizienz macht vielleicht schon die gewaltigen Fortschritte der Computertechnik in den vergangenen siebzig Jahren deutlich.
Ein wesentlicher Schritt hin zur Mikroelektronik begann mit der Erfindung des Bipolar-Transistors durch Bardeen, Brattain und Shockley im Jahre 1948 [78]. Der Begriff „Transistor“ ist ein Kunstwort aus den beiden englischen Begriffen „Transfer“ und „Resistor“. Aus einzelnen Transistoren wurden dann Mitte der fünfziger Jahre digitale Logikgatter entwickelt, die zur „Transistorisierung“ der Computer von Firmen wie IBM oder DEC eingesetzt wurden. Wie schon zuvor durch die Einführung der Röhrentechnik konnten hierdurch die Leistungsparameter der Rechner, wie Rechenleistung, Baugröße und Energiebedarf, weiter verbessert werden. Die Entwicklung der Computertechnik ist gekennzeichnet durch das beständige Streben, die Leistungsparameter – dies betraf in erster Linie die Rechenleistung – verbessern zu können. Neben vielen Verbesserungen in der Architektur der Rechner sind die immensen Fortschritte in den letzten 80 Jahren jedoch insbesondere der Mikroelektronik zuzuschreiben.
Unter einer mikroelektronischen Realisierung versteht man die Integration von Transistoren sowie weiteren Bauelementen wie Dioden, Kapazitäten und Widerständen auf einem halbleitenden Substrat, was man auch als integrierte Schaltung (engl.: integrated circuit, IC) oder „Chip“ bezeichnet. Das erste IC wurde 1958 von Jack Kilby bei Texas Instruments als Oszillatorschaltung in einem Germanium-Substrat entwickelt [57]. Robert Noyce entwickelte 1959 bei Fairchild ebenfalls eine integrierte Schaltung, allerdings auf Silizium-Basis [57]. Fairchild konnte ein spezielles Fertigungsverfahren mit Hilfe der Photolithographie entwickeln, mit welchem ICs mit einer ebenen oder „planen“ Oberfläche gefertigt werden konnten. Diese Silizium-Planar-Technik war in der Folge auch der grundlegende Prozess für MOS-Schaltungen und wird in weiterentwickelter Form noch heute verwendet. Die ersten digitalen integrierten Schaltungen wurden ab 1962 zunächst in bipolarer Technik als so genannte TTL-Gatter (Transistor-Transistor-Logik) von Firmen wie Texas Instruments und Fairchild auf den Markt gebracht. In der Folge konnten wiederum die Computer, von Firmen wie IBM oder DEC, durch den Einsatz dieser Technik verbessert werden. Die TTL-Technik war gekennzeichnet durch einen geringen Integrationsgrad, so dass in einem TTL-Baustein einige Gatterfunktionen, Speicherfunktionen oder etwas komplexere Funktionen, wie Zähler, implementiert waren. Dies wurde als SSI (Small Scale Integration: < 100 Transistoren pro Chip) bezeichnet. Zum Aufbau eines größeren Systems waren jedoch immer noch einige Platinen voll mit TTL-Bausteinen notwendig. Neben der Anwendung in Computern brachte die Elektronik in Form von Transistoren und ICs auch in anderen Branchen, wie der Unterhaltungselektronik, der Investitionsgüter oder der Luft- und Raumfahrt, erhebliche Innovationsschübe.
Ein wesentlicher Nachteil der bipolaren TTL-Technik ist es, dass die Schaltungen im Ruhezustand eine nicht unerhebliche Stromaufnahme aufweisen. Dies resultiert aus dem Funktionsprinzip des Bipolartransistors durch die Stromsteuerung und stand einer weiteren Erhöhung der Integrationsdichte entgegen. Auf einem anderen Funktionsprinzip beruht der (unipolare) Feldeffekttransistor, bei dem die Leitfähigkeit des Kanals nicht durch einen Strom sondern durch ein elektrisches Feld gesteuert wird, welches von einer am – vom Kanal isolierten – Gate angelegten Spannung erzeugt wird, und somit eine nahezu leistungslose Steuerung ermöglicht. Obwohl das Prinzip schon 1931 durch Lilienfeld entdeckt wurde (IGFET: Insulated Gate Field Effect Transistor) [78], verhinderte die schwierige Herstellung des isolierenden Gateoxids zwischen Gate und Kanal jedoch lange Zeit die Einführung dieses Transistors. Erst in den sechziger Jahren konnten die technischen Probleme gelöst werden und führten zur Einführung der MOS-Technologie (Metal-Oxide-Semiconductor). Die ersten kommerziellen digitalen MOS-ICs wurden in PMOS-Technik – das P bezeichnet den auf positiven Ladungen oder „Löchern“ beruhenden Leitungsmechanismus im Kanal – beispielsweise in Taschenrechnern eingesetzt.
Die weitere Entwicklung der Mikroelektronik lässt sich am besten an den Mikroprozessoren der Firma Intel nachvollziehen. Einige Mitarbeiter der Firma Fairchild, darunter Gordon Moore und Robert Noyce, gründeten in den sechziger Jahren die Firma Intel. Während Intel anfänglich Speicherbausteine entwickelte und herstellte, bekam die Firma Ende der sechziger Jahre von der japanischen Firma Busicom den Auftrag, ein IC für einen Tischrechner zu entwickeln. Im Laufe der Entwicklung wurde dieses IC als programmierbarer Rechner oder Prozessor implementiert und dies war die Geburtsstunde des so genannten „Mikroprozessors“. Intel kaufte die Lizenzen von Busicom zurück und verkaufte den ersten Mikroprozessor 1971 als „Intel 4004“. Der „4004“ wurde in einem PMOS-Prozess produziert, wobei die kleinste Strukturgröße und damit die Kanallänge der Transistoren 10 μm betrug; zum Vergleich weist ein menschliches Haar eine Größe von etwa 50 μm auf. Damit war man in der Lage 2.250 Transistoren zu integrieren (MSI: Medium Scale Integration, 100-3000 Transistoren pro Chip) und der Prozessor konnte mit 740 kHz getaktet werden, wobei er eine Rechenleistung von 0,06 MIPS erreichte.
Im Jahr 1974 stellte Intel den ersten 8-Bit-Mikroprozessor „8080“ in einer 6 μm-PMOS-Technologie vor und 1978 wurde mit dem „8086“ der erste 16-Bit-Prozessor eingeführt, welcher die Basis für die von IBM entwickelten und 1981 eingeführten „Personal Computer“ (PC) war. Der „8086“ wurde in einer NMOS-Technologie entwickelt, welche im FET-Kanal auf Elektronenleitung beruhte und damit schneller als PMOS war. Der „80386“ im Jahr 1985 markierte den Einstieg in die 32-Bit-Prozessoren und auch den Übergang zu einer komplementären Schaltungstechnik, welche als CMOS (Complementary MOS) bezeichnet wird und zu einer weiteren Reduktion der Ruhestromaufnahme und zu einer noch höheren Störunempfindlichkeit führte. Die CMOS-Technik ist bis heute die wesentliche Technologie für die Implementierung von hochkomplexen digitalen ICs. Mit jeder neuen Prozessgeneration verringern sich die Abmessungen oder Strukturgrößen der Transistoren, so dass man die Prozesse nach der minimal möglichen Kanallänge der Transistoren charakterisiert. Nach dem „80486“ im Jahr 1989 wurde 1993 der „Pentium“ Prozessor beispielsweise in einer 0,6 μm-CMOS-Technologie eingeführt, die also eine um den Faktor 17 kleinere Strukturgröße als der „4004“ aufweist und damit etwa um den Faktor 83 kleiner als ein Haar ist. Diese Entwicklung führt zu zwei Effekten: Zum einen verringert sich der Platzbedarf für die Transistoren, so dass mehr Transistoren auf den Chips untergebracht werden können (Integrationsdichte) und damit mehr Funktionen auf der gleichen Chipfläche implementiert werden können. Zum anderen schalten die Transistoren schneller, so dass die Schaltung mit einer höheren Taktfrequenz betrieben werden kann, was wiederum zu einer höheren Rechenleistung führt. Die verschiedenen Integrationsgrade können weiter in etwa - ...