FPGA Hardware-Entwurf
eBook - ePub

FPGA Hardware-Entwurf

Schaltungs- und System-Design mit VHDL und C/C++

  1. 580 Seiten
  2. German
  3. ePUB (handyfreundlich)
  4. Über iOS und Android verfügbar
eBook - ePub

FPGA Hardware-Entwurf

Schaltungs- und System-Design mit VHDL und C/C++

Angaben zum Buch
Buchvorschau
Inhaltsverzeichnis
Quellenangaben

Über dieses Buch

Für einen erfolgreichen Hardware Entwurf sind nicht nur VHDL-Kenntnisse wichtig, sondern auch Kenntnisse der FPGA-Schaltungstechnik und der Design Tools. Das vorliegende Buch stellt die Zusammenhänge zwischen diesen wichtigen Themen dar und bietet eine zielgerichtete Einführung in den Entwurf von digitalen Schaltungen und Systemen mit FPGAs. Beginnend mit den Grundlagen von VHDL sowie der CMOS- und FPGA-Technologie, werden anschließend der synthesegerechte Entwurf mit VHDL und die synchrone Schaltungstechnik auf dem FPGA behandelt. Darüber hinaus werden auch die wesentlichen Entwurfswerkzeuge, wie Logiksynthese oder die statische Timing-Analyse, erläutert. Abgerundet wird das Buch mit einem Kapitel über High-Level Synthese, welche eine Umsetzung von C/C ++ -Code in eine VHDL-Implementierung ermöglicht. Der Leser erhält anhand vieler Code-Beispiele einen praxisorientierten Zugang zum Hardware-Entwurf mit FPGAs.

  • Zielgerichtete Einführung in den digitalen Schaltungsentwurf
  • Alle notwendigen Kenntnisse für den rechnergestützten Hardwareentwurf

Frank Kesel studierte Elektrotechnik an der Universität Karlsruhe und promovierte an der Universität Hannover. Er war zehn Jahre in der Industrie im digitalen ASIC-Design tätig. Er ist seit 1999 Professor an der Hochschule Pforzheim mit dem Spezialgebiet FPGA-Design.

Häufig gestellte Fragen

Gehe einfach zum Kontobereich in den Einstellungen und klicke auf „Abo kündigen“ – ganz einfach. Nachdem du gekündigt hast, bleibt deine Mitgliedschaft für den verbleibenden Abozeitraum, den du bereits bezahlt hast, aktiv. Mehr Informationen hier.
Derzeit stehen all unsere auf Mobilgeräte reagierenden ePub-Bücher zum Download über die App zur Verfügung. Die meisten unserer PDFs stehen ebenfalls zum Download bereit; wir arbeiten daran, auch die übrigen PDFs zum Download anzubieten, bei denen dies aktuell noch nicht möglich ist. Weitere Informationen hier.
Mit beiden Aboplänen erhältst du vollen Zugang zur Bibliothek und allen Funktionen von Perlego. Die einzigen Unterschiede bestehen im Preis und dem Abozeitraum: Mit dem Jahresabo sparst du auf 12 Monate gerechnet im Vergleich zum Monatsabo rund 30 %.
Wir sind ein Online-Abodienst für Lehrbücher, bei dem du für weniger als den Preis eines einzelnen Buches pro Monat Zugang zu einer ganzen Online-Bibliothek erhältst. Mit über 1 Million Büchern zu über 1.000 verschiedenen Themen haben wir bestimmt alles, was du brauchst! Weitere Informationen hier.
Achte auf das Symbol zum Vorlesen in deinem nächsten Buch, um zu sehen, ob du es dir auch anhören kannst. Bei diesem Tool wird dir Text laut vorgelesen, wobei der Text beim Vorlesen auch grafisch hervorgehoben wird. Du kannst das Vorlesen jederzeit anhalten, beschleunigen und verlangsamen. Weitere Informationen hier.
Ja, du hast Zugang zu FPGA Hardware-Entwurf von Frank Kesel im PDF- und/oder ePub-Format sowie zu anderen beliebten Büchern aus Informatik & Datenverarbeitung. Aus unserem Katalog stehen dir über 1 Million Bücher zur Verfügung.

Information

Jahr
2018
ISBN
9783110531992

1Einleitung

1.1Digitaltechnik und die mikroelektronische Revolution

Obgleich es aus dem alltäglichen Umgang mit technischen Geräten vielleicht nicht erkennbar ist, so hat die mikroelektronische Realisierung von digitalen Schaltungen die technische Entwicklung in den letzten fünfzig Jahren in dramatischer Weise vorangetrieben und ein Ende dieser Entwicklung ist derzeit nicht zu sehen. Das Beispiel Internet zeigt, dass die Digitaltechnik und die Mikroelektronik – Technologien die das Internet erst ermöglichten – auch erhebliche Einflüsse auf unsere Gesellschaft haben. Von einer revolutionären Entwicklung durch die Mikroelektronik zu sprechen ist daher nicht übertrieben. Wir wollen im Folgenden anhand eines kurzen historischen Exkurses aufzeigen, dass die enorme Weiterentwicklung der Leistungsfähigkeit von digitalen Computern immer geprägt war durch die technischen Realisierungsmöglichkeiten – von mechanischen Lösungen über Relais, Vakuumröhren und Transistoren hin zu mikroelektronischen Realisierungen.
Der Begriff digital“ (digitus“ <lat.>: der Finger) bedeutet, dass ein Signal oder ein Zeichen nur endlich viele diskrete Werte annehmen kann, im Unterschied zu analogen Signalen. Kann das Signal oder das Zeichen nur zwei Werte (z. B. 0 und 1) annehmen, so spricht man von einem binären, digitalen Signal [81] oder von einem Binärzeichen (engl.: Bit, Binary Digit). Die Entwicklung der Digitaltechnik ist eng mit der Entwicklung von Rechenmaschinen – im Englischen als Computer“ bezeichnet (to compute = berechnen) – verknüpft. Erste mechanische Rechenmaschinen wurden schon im 17. Jahrhundert von Blaise Pascal, Wilhelm Schickart oder Gottfried Wilhelm von Leibniz entwickelt. Charles Babbage machte im frühen 19. Jahrhundert mit der so genannten Analytical Engine“ einen ersten Vorschlag für einen frei programmierbaren Computer, welcher wesentliche Bestandteile enthielt die auch in modernen Computern vorhanden sind. Zu diesem Zeitpunkt mussten Rechenmaschinen mechanisch realisiert werden, da die Elektrotechnik noch am Anfang ihrer Entwicklung stand. Babbage war seiner Zeit voraus: Die Analytical Engine war aufgrund ihrer Komplexität mechanisch nicht realisierbar.
Erst durch die Entwicklung der Relaistechnik in den zwanziger Jahren des vergangenen Jahrhunderts konnte Konrad Zuse 1936 in Deutschland eine erste elektromechanische Realisierung eines Rechners vorstellen. Auch in den USA wurde 1937 von Howard Aiken an der Harvard University eine elektromechanische Version eines Rechners (Harvard Mark I) realisiert. Während die Harvard Mark I noch im Dezimalsystem rechnete, so wurden die Rechner ab den vierziger Jahren weitgehend im dualen Zahlensystem implementiert. Rechnen im Dualsystem bedeutet, dass für die Implementierung der Arithmethik nur binäre Zeichen benutzt werden und es sich um ein Stellenwertsystem zur Basis 2 – das Dezimalsystem verwendet die Basis 10 – handelt. Einer der wesentlichen Gründe, warum man zum Dualsystem überging, lag in der Tatsache begründet, dass die Arithmetik im Dualsystem einfacher zu realisieren ist.
Die vierziger Jahre waren auch gekennzeichnet durch das Ersetzen der Relais durch elektronische Vakuumröhren, welche ein schnelleres Schalten ermöglichten und damit eine höhere Leistungsfähigkeit der Rechner. Nicht nur die Arithmetik, sondern auch die Informationsspeicherung und die Steuerschaltungen wurden digital mit einer zweiwertigen Logik – also binär – realisiert. Die digitale, binäre Implementierung hat gegenüber einer analogen Realisierung den wesentlichen Vorteil, dass die elektronischen Schaltungen sehr viel störunempfindlicher werden. Die Störunempfindlichkeit beruht auf der Tatsache, dass die elektronische Schaltung nur zwei diskrete Schaltzustände, nämlich ”0“ und ”1“, realisieren muss. Die mathematische Grundlage der Digitaltechnik ist die von George Boole 1847 eingeführte Boole’sche Algebra“. Sie wurde 1937 von Claude Shannon in die so genannte Schaltalgebra“ umgesetzt, welche noch heute die Grundlage für die Realisierung von hochkomplexen Schaltungen mit Milliarden von Transistoren ist.
Problematisch an der Röhrentechnik in den vierziger Jahren war allerdings die Tatsache, dass die Rechner für heutige Verhältnisse gigantische Ausmaße und einen enormen Energiebedarf hatten. Der von Eckert und Mauchley [57] 1945 an der Universität von Pennsylvania entwickelte ENIAC (Electronic Numerical Integrator and Computer) benötigte beispielsweise 18.000 Röhren und hatte einen Platzbedarf von 1.400 qm. Die benötigte elektrische Leistung betrug 140 kW (!) und ergab dabei eine nach heutigen Maßstäben aüßerst geringe Rechenleistung von 5.000 Additionen pro Sekunde, was man heute als 0,005 MIPS (MIPS: Million Instructions per Second) bezeichnen würde. Während heutige Mikroprozessoren aus einem Watt zugeführter elektrischer Leistung Rechenleistungen von mehr als tausend MIPS gewinnen (1.000 MIPS /Watt), so brachte es die ENIAC nur auf umgerechnet etwa 3,6 · 10−8 MIPS /Watt. Dieser enorme Unterschied in der Energieeffizienz macht vielleicht schon die gewaltigen Fortschritte der Computertechnik in den vergangenen siebzig Jahren deutlich.
Ein wesentlicher Schritt hin zur Mikroelektronik begann mit der Erfindung des Bipolar-Transistors durch Bardeen, Brattain und Shockley im Jahre 1948 [78]. Der Begriff Transistor“ ist ein Kunstwort aus den beiden englischen Begriffen Transfer“ und Resistor“. Aus einzelnen Transistoren wurden dann Mitte der fünfziger Jahre digitale Logikgatter entwickelt, die zur Transistorisierung“ der Computer von Firmen wie IBM oder DEC eingesetzt wurden. Wie schon zuvor durch die Einführung der Röhrentechnik konnten hierdurch die Leistungsparameter der Rechner, wie Rechenleistung, Baugröße und Energiebedarf, weiter verbessert werden. Die Entwicklung der Computertechnik ist gekennzeichnet durch das beständige Streben, die Leistungsparameter – dies betraf in erster Linie die Rechenleistung – verbessern zu können. Neben vielen Verbesserungen in der Architektur der Rechner sind die immensen Fortschritte in den letzten 80 Jahren jedoch insbesondere der Mikroelektronik zuzuschreiben.
Unter einer mikroelektronischen Realisierung versteht man die Integration von Transistoren sowie weiteren Bauelementen wie Dioden, Kapazitäten und Widerständen auf einem halbleitenden Substrat, was man auch als integrierte Schaltung (engl.: integrated circuit, IC) oder Chip“ bezeichnet. Das erste IC wurde 1958 von Jack Kilby bei Texas Instruments als Oszillatorschaltung in einem Germanium-Substrat entwickelt [57]. Robert Noyce entwickelte 1959 bei Fairchild ebenfalls eine integrierte Schaltung, allerdings auf Silizium-Basis [57]. Fairchild konnte ein spezielles Fertigungsverfahren mit Hilfe der Photolithographie entwickeln, mit welchem ICs mit einer ebenen oder planen“ Oberfläche gefertigt werden konnten. Diese Silizium-Planar-Technik war in der Folge auch der grundlegende Prozess für MOS-Schaltungen und wird in weiterentwickelter Form noch heute verwendet. Die ersten digitalen integrierten Schaltungen wurden ab 1962 zunächst in bipolarer Technik als so genannte TTL-Gatter (Transistor-Transistor-Logik) von Firmen wie Texas Instruments und Fairchild auf den Markt gebracht. In der Folge konnten wiederum die Computer, von Firmen wie IBM oder DEC, durch den Einsatz dieser Technik verbessert werden. Die TTL-Technik war gekennzeichnet durch einen geringen Integrationsgrad, so dass in einem TTL-Baustein einige Gatterfunktionen, Speicherfunktionen oder etwas komplexere Funktionen, wie Zähler, implementiert waren. Dies wurde als SSI (Small Scale Integration: < 100 Transistoren pro Chip) bezeichnet. Zum Aufbau eines größeren Systems waren jedoch immer noch einige Platinen voll mit TTL-Bausteinen notwendig. Neben der Anwendung in Computern brachte die Elektronik in Form von Transistoren und ICs auch in anderen Branchen, wie der Unterhaltungselektronik, der Investitionsgüter oder der Luft- und Raumfahrt, erhebliche Innovationsschübe.
Ein wesentlicher Nachteil der bipolaren TTL-Technik ist es, dass die Schaltungen im Ruhezustand eine nicht unerhebliche Stromaufnahme aufweisen. Dies resultiert aus dem Funktionsprinzip des Bipolartransistors durch die Stromsteuerung und stand einer weiteren Erhöhung der Integrationsdichte entgegen. Auf einem anderen Funktionsprinzip beruht der (unipolare) Feldeffekttransistor, bei dem die Leitfähigkeit des Kanals nicht durch einen Strom sondern durch ein elektrisches Feld gesteuert wird, welches von einer am – vom Kanal isolierten – Gate angelegten Spannung erzeugt wird, und somit eine nahezu leistungslose Steuerung ermöglicht. Obwohl das Prinzip schon 1931 durch Lilienfeld entdeckt wurde (IGFET: Insulated Gate Field Effect Transistor) [78], verhinderte die schwierige Herstellung des isolierenden Gateoxids zwischen Gate und Kanal jedoch lange Zeit die Einführung dieses Transistors. Erst in den sechziger Jahren konnten die technischen Probleme gelöst werden und führten zur Einführung der MOS-Technologie (Metal-Oxide-Semiconductor). Die ersten kommerziellen digitalen MOS-ICs wurden in PMOS-Technik – das P bezeichnet den auf positiven Ladungen oder Löchern“ beruhenden Leitungsmechanismus im Kanal – beispielsweise in Taschenrechnern eingesetzt.
Die weitere Entwicklung der Mikroelektronik lässt sich am besten an den Mikroprozessoren der Firma Intel nachvollziehen. Einige Mitarbeiter der Firma Fairchild, darunter Gordon Moore und Robert Noyce, gründeten in den sechziger Jahren die Firma Intel. Während Intel anfänglich Speicherbausteine entwickelte und herstellte, bekam die Firma Ende der sechziger Jahre von der japanischen Firma Busicom den Auftrag, ein IC für einen Tischrechner zu entwickeln. Im Laufe der Entwicklung wurde dieses IC als programmierbarer Rechner oder Prozessor implementiert und dies war die Geburtsstunde des so genannten Mikroprozessors“. Intel kaufte die Lizenzen von Busicom zurück und verkaufte den ersten Mikroprozessor 1971 als Intel 4004“. Der 4004“ wurde in einem PMOS-Prozess produziert, wobei die kleinste Strukturgröße und damit die Kanallänge der Transistoren 10 μm betrug; zum Vergleich weist ein menschliches Haar eine Größe von etwa 50 μm auf. Damit war man in der Lage 2.250 Transistoren zu integrieren (MSI: Medium Scale Integration, 100-3000 Transistoren pro Chip) und der Prozessor konnte mit 740 kHz getaktet werden, wobei er eine Rechenleistung von 0,06 MIPS erreichte.
Im Jahr 1974 stellte Intel den ersten 8-Bit-Mikroprozessor 8080“ in einer 6 μm-PMOS-Technologie vor und 1978 wurde mit dem 8086“ der erste 16-Bit-Prozessor eingeführt, welcher die Basis für die von IBM entwickelten und 1981 eingeführten Personal Computer“ (PC) war. Der 8086“ wurde in einer NMOS-Technologie entwickelt, welche im FET-Kanal auf Elektronenleitung beruhte und damit schneller als PMOS war. Der 80386“ im Jahr 1985 markierte den Einstieg in die 32-Bit-Prozessoren und auch den Übergang zu einer komplementären Schaltungstechnik, welche als CMOS (Complementary MOS) bezeichnet wird und zu einer weiteren Reduktion der Ruhestromaufnahme und zu einer noch höheren Störunempfindlichkeit führte. Die CMOS-Technik ist bis heute die wesentliche Technologie für die Implementierung von hochkomplexen digitalen ICs. Mit jeder neuen Prozessgeneration verringern sich die Abmessungen oder Strukturgrößen der Transistoren, so dass man die Prozesse nach der minimal möglichen Kanallänge der Transistoren charakterisiert. Nach dem 80486“ im Jahr 1989 wurde 1993 der Pentium“ Prozessor beispielsweise in einer 0,6 μm-CMOS-Technologie eingeführt, die also eine um den Faktor 17 kleinere Strukturgröße als der 4004“ aufweist und damit etwa um den Faktor 83 kleiner als ein Haar ist. Diese Entwicklung führt zu zwei Effekten: Zum einen verringert sich der Platzbedarf für die Transistoren, so dass mehr Transistoren auf den Chips untergebracht werden können (Integrationsdichte) und damit mehr Funktionen auf der gleichen Chipfläche implementiert werden können. Zum anderen schalten die Transistoren schneller, so dass die Schaltung mit einer höheren Taktfrequenz betrieben werden kann, was wiederum zu einer höheren Rechenleistung führt. Die verschiedenen Integrationsgrade können weiter in etwa - ...

Inhaltsverzeichnis

  1. Cover
  2. Titelseite
  3. Impressum
  4. Vorwort
  5. Inhaltsverzeichnis
  6. 1 Einleitung
  7. 2 Modellierung von digitalen Schaltungen mit VHDL
  8. 3 Digitale integrierte Schaltungen
  9. 4 Von der Register-Transfer-Ebene zur Gatterebene
  10. 5 Physikalische Realisierung und Timing Analyse
  11. 6 High-Level Synthese
  12. A Anhang
  13. Literaturverzeichnis
  14. Index