Der Cyborg und das Krokodil
eBook - ePub

Der Cyborg und das Krokodil

Technik kann auch glücklich machen

  1. 176 Seiten
  2. German
  3. ePUB (handyfreundlich)
  4. Über iOS und Android verfügbar
eBook - ePub

Der Cyborg und das Krokodil

Technik kann auch glücklich machen

Angaben zum Buch
Buchvorschau
Inhaltsverzeichnis
Quellenangaben

Über dieses Buch

Ob Handy, Waschmaschine oder Auto: Ein Leben ohne Technik können wir uns gar nicht mehr vorstellen. Sie hilft, sie macht Spaß - und treibt uns manchmal zur Weißglut...Der ZEIT-Redakteur Gero von Randow liefert ein geistreiches Porträt unseres Lebens im Takt der Technik: »Greifen Sie sich ein beliebiges Stück Technik heraus, und nach kürzester Zeit landen Sie bei nichttechnischen Themen.«Blinder Technikoptimismus liegt ihm ebenso fern wie düsterer Pessimismus: Wir alle leben mit Maschinen und technischen Errungenschaften, oft weit bequemer und sicherer als früher, zugleich aber auch abhängiger von Dingen, die wir nicht verstehen.Unsere Aufgabe ist es, unsere natürliche menschliche Intelligenz mit der künstlichen Intelligenz in Einklang zu bringen: Begegnen wir der Technik mit Interesse und ohne Angst, mit kritischem Bewusstsein und Spieltrieb!

Häufig gestellte Fragen

Gehe einfach zum Kontobereich in den Einstellungen und klicke auf „Abo kündigen“ – ganz einfach. Nachdem du gekündigt hast, bleibt deine Mitgliedschaft für den verbleibenden Abozeitraum, den du bereits bezahlt hast, aktiv. Mehr Informationen hier.
Derzeit stehen all unsere auf Mobilgeräte reagierenden ePub-Bücher zum Download über die App zur Verfügung. Die meisten unserer PDFs stehen ebenfalls zum Download bereit; wir arbeiten daran, auch die übrigen PDFs zum Download anzubieten, bei denen dies aktuell noch nicht möglich ist. Weitere Informationen hier.
Mit beiden Aboplänen erhältst du vollen Zugang zur Bibliothek und allen Funktionen von Perlego. Die einzigen Unterschiede bestehen im Preis und dem Abozeitraum: Mit dem Jahresabo sparst du auf 12 Monate gerechnet im Vergleich zum Monatsabo rund 30 %.
Wir sind ein Online-Abodienst für Lehrbücher, bei dem du für weniger als den Preis eines einzelnen Buches pro Monat Zugang zu einer ganzen Online-Bibliothek erhältst. Mit über 1 Million Büchern zu über 1.000 verschiedenen Themen haben wir bestimmt alles, was du brauchst! Weitere Informationen hier.
Achte auf das Symbol zum Vorlesen in deinem nächsten Buch, um zu sehen, ob du es dir auch anhören kannst. Bei diesem Tool wird dir Text laut vorgelesen, wobei der Text beim Vorlesen auch grafisch hervorgehoben wird. Du kannst das Vorlesen jederzeit anhalten, beschleunigen und verlangsamen. Weitere Informationen hier.
Ja, du hast Zugang zu Der Cyborg und das Krokodil von Gero von Randow im PDF- und/oder ePub-Format sowie zu anderen beliebten Büchern aus Technik & Maschinenbau & Technik, Forschung & Kompetenzen. Aus unserem Katalog stehen dir über 1 Million Bücher zur Verfügung.

Unsere intelligenten Dinge

Das Mittelalter war hölzern, die Neuzeit ist metallen, aber die große Wende brachte das 20. Jahrhundert. Zunächst indem der Elektromotor die Zivilisation durchdrang, sodann indem ihre Digitalisierung einsetzte.
Wissen Sie, wie viele Elektromotoren sich allein in Ihrem Haushalt befinden (Ihr Auto, wenn Sie eines besitzen, nicht mitgerechnet)? Bei mir habe ich 30 gezählt, es sind womöglich noch mehr. Die Zahl der digitalen Schaltkreise bei uns zu Hause liegt weit darüber.
Während die Elektromotoren die künstliche Antriebskraft fein über die industriellen Gesellschaften verteilten, versieht die Digitaltechnik sie mit einer nie zuvor gekannten Flexibilität. Die Elektrizität verlieh den Dingen einen elan vital, die Digitalisierung hauchte ihnen eine Seele ein.
Die Ideen, die der Digitalisierung zugrunde liegen, sind viel älter als das 20. Jahrhundert. Die Digitalisierung fußt sowohl auf einer industriellen als auch auf einer geisteswissenschaftlichen Tradition.
Im späten 13. Jahrhundert ersann der mallorquinische Theologe Raimundus Lullus einen Mechanismus, der dazu dienen sollte, Moslems mit zwingender Logik von der Richtigkeit des Christentums zu überzeugen. Der Apparat bestand aus drehbaren Scheiben, hintereinander auf einer Spindel montiert, und auf dem Rand jeder Scheibe waren Symbole notiert, die für theologische Theorien oder Begriffe standen. Nun brauchte der Heide nur noch ein paar Hebel zu drücken und ein wenig zu kurbeln, und siehe da, ein zuvor ausgeklügelter Mechanismus präsentierte ihm unbestreitbare, weil demonstrierte Wahrheiten.
Dieser Mechanismus ist deswegen interessant, weil er einen grandiosen Gedanken und einen noch grandioseren Irrtum offenbarte. Die Idee maschinellen Schließens war genial, und Lullus verfolgte sie auch anhand profaner Themen. Grotesk hingegen war die Vorstellung, spirituelle Überzeugungen ließen sich durch formale Operationen wegdemonstrieren – erst recht zugunsten anderer spiritueller Überzeugungen, die noch dazu von vornherein in einen Apparat einprogrammiert waren, und zwar so offenkundig, dass die Überzeugungsmaschine etwas geradezu Lachhaftes hatte.
Dieser außerordentlichen Idee, mithilfe einer Maschine Begriffe mechanisch zu kombinieren, um daraus sinnvolle Aussagen herzuleiten, folgten auch Blaise Pascal, Thomas Hobbes sowie Gottfried Wilhelm Leibniz und viel später schließlich der Logiker und Philosoph Rudolf Carnap (1891–1970), dessen Schüler zu Pionieren der »Künstlichen Intelligenz« (KI) wurden, sowie insbesondere der Mathematiker Alan Turing (1912–1954).
Turing zeichnete mit Papier und Bleistift eine formale Struktur, eine Art theoretischer Maschine, die mithilfe einer jeweils festzulegenden Tabelle aus Regeln eine Symbolkette in eine andere umwandelt. Die anfängliche Symbolkette kann beispielsweise für eine Aussage stehen, etwa »Aus A=B und B=C folgt A=C«, und die Maschine spuckt in diesem Fall am Ende ein Symbol aus, das für »stimmt« steht (genauer gesagt: für »herleitbar«).
Turings Maschine ist die klassische formale Definition dessen, was man unter einem Algorithmus versteht, also einem streng geregelten Verfahren, eine Zeichenfolge in eine andere umzuformen. Die »Turing-Maschine«, wie sie heute genannt wird, wies im Prinzip bereits alle Merkmale der heutigen Computer auf: Ein- und Ausgang, Speicher für Daten und Programme, außerdem einen getakteten Prozessor, der Lese-, Schreib-, Sprung- und Stoppbefehle erkannte.
Turing stellte etliche Theorien über diese Papiermaschine auf. Insbesondere wies er nach, dass sich mit ihrer Hilfe alles herleiten lässt, was überhaupt formal hergeleitet werden kann: Sie ist ein Universalcomputer. Allerdings müssen für diesen immer neue Programme geschrieben werden, denn Turing bewies ebenso, dass es kein allgemeingültiges Programm gibt, das die Herleitbarkeit sämtlicher formaler Sätze prüfen kann.
So viel zur geistesgeschichtlichen Herkunft der Digitalisierung. Nun die industrielle.
Im England der industriellen Revolution dachte sich der Mathematiker, Maschinenenzyklopädist und Erfinder Charles Babbage (1771–1871): »Es gibt wirklich keinen Grund, warum geistige wie auch körperliche Arbeit nicht mithilfe von Maschinen eingespart werden sollte.«13 Babbage tüftelte gleichzeitig an Rechenmaschinen und an einer allgemeinen, systematischen Methode für die Entwicklung von Maschinen. Beide Projekte sollten einander befruchten.
Er entwickelte eine »Mechanische Notation«14, eine formale Sprache zur Beschreibung von Maschinen. Mit ihr, schrieb Babbage, sei es möglich, auf dem Papier zu berechnen, ob eine Maschine funktionieren werde oder nicht (erinnert uns das nicht an Turing?). Diese Grundidee Babbages existiert noch immer fort, heute spricht man in der Industrieautomation von »Spezifikationssprachen«, sie laufen auf Computern.
Zugleich hatte Babbage den Gedanken, dass es möglich sein müsse, Maschinen zu bauen, auf denen formale Operationen laufen könnten. Er entwarf maschinelle Rechenverfahren, die teilweise parallel zueinander laufen, ermittelte deren Rechenzeit und versuchte, diese zu verkürzen: Er arbeitete ähnlich wie ein heutiger Informatiker.
Als er seinen Entwurf für eine Rechenmaschine, die Tabellen kalkulieren kann, für umsetzungsreif hielt, ersuchte Babbage um Unterstützung beim Staat, mit Erfolg. Nur war das Geld bald ausgegeben, woraufhin der Erfinder weitere Zuschüsse beantragte – nun aber für eine neue, verbesserte Maschine: einen Computer. Das gefiel den Bürokraten nicht, der notorische Querkopf Babbage indes beharrte auf dem neuen Projekt: Streit, Krach, kein Geld, Ende, aus.
Babbages analytical engine konnte noch nicht elektrisch sein, er wollte sie mit Dampf betreiben, und ihre Schaltungen sollten von Lochkarten gesteuert werden. Doch niemals hätte der Erfinder für die mechanischen Komponenten Hersteller gefunden, deren Fertigung präzise genug gewesen wäre. Es lag also nicht nur am Geld, dass die Maschine ein Entwurf blieb.
Aber was für einer! Ihr Erfinder hatte Ideen im Sinn, die noch heute in der Informatik aktuell sind, Sprungbefehle etwa oder eine Typisierung von Daten. Den ersten real existierenden Computer baute dann der Deutsche Konrad Zuse im Jahr 1941, aus elektromechanischen Bauelementen.
Das Denken zu mechanisieren, das hatten sowohl Lullus als auch Babbage im Sinn gehabt. Was ihnen fehlte, war geeignete Technik. Die kam erst im 20. Jahrhundert auf – mit den Relais, dann den Elektronenröhren und schließlich mit den Halbleitern. Erst diese, die elektronischen Bauteile auf Siliziumbasis, erlaubten das, was heute als Digitalisierung die Welt bewegt.
Die Durchschlagskraft der Digitalisierung beruht auf vier Eigenschaften: Allgemeinheit, Wendigkeit, Geschwindigkeit und Winzigkeit.
Allgemein ist sie, weil sie alles, was sich messen lässt, in binären Zahlen darstellt, also in Abfolgen von Einsen und Nullen (die für elektrische Zustände stehen) – die Helligkeit oder der Farbton eines Bildbereichs, die Tonhöhe und Lautstärke eines Klangs, Temperaturen, Bewegungen, Zeichenfolgen aller Art (darunter natürlich auch Wörter).
Wendig ist sie, weil sie mit Gruppen (»Vektoren«) aus diesen beiden Zahlen rechnet. Sie kann diese aufbewahren, löschen, weitergeben oder verändern, also alles das tun, was man »Informationsverarbeitung« nennt. Dass die digitalisierten Daten aus Nullen und Einsen bestehen, hat unter anderem den gewaltigen Vorteil, dass sich die Muster bestimmter Vektoren leicht in einem Meer anderer Nullen und Einsen auffinden lassen – digitale Dateien sind ideal für Suchprozeduren. Sie lassen sich auch bequem übertragen, zumal sie für die Übertragung so aufbereitet werden können, dass ihnen Übertragungsfehler nicht viel ausmachen.
Ähnliches gilt für die Speicherung: Datenträger werden alt, doch solange die Vektoren aus Nullen und Einsen identifizierbar bleiben, lässt sich der gespeicherte Inhalt ohne Informationsverlust auf einen anderen Träger hinüberschaufeln; es gibt auch Methoden, aufgetretene Lücken aufzufüllen oder sie nicht wirklich als Lücken problematisch werden zu lassen, indem der binäre Inhalt von vornherein mehrmals gespeichert wird.
Die Geschwindigkeit dieser Technik nimmt noch immer zu, und diese wird von Jahr zu Jahr winziger, sie folgt dem legendären Moore’schen Gesetz. Das Gesetz ist eigentlich keines, sondern eine Vermutung von Gordon Moore, dem Mitbegründer der Chipfirma Intel. Vor rund 50 Jahren sagte er voraus, dass sich die Zahl der Schalter (meist Transistoren) pro Chip sowie ihre Geschwindigkeit etwa alle 12 bis 18 Monate verdoppeln würden, während der Stromverbrauch des Chips konstant bliebe.
Jene Regel wurde in den folgenden Jahren immer wieder revidiert und neu formuliert. Sie beschreibt heute nicht nur die Rechenleistungen der Elektronik, sondern auch die Entwicklung der Speicherkapazitäten und Übertragungsraten. Man könnte auch sagen: Das Moore’sche Gesetz ist eines, das sich die Hardware-Industrie selbst auferlegt, um sich selbst nach der Art sozialistischer Fünfjahrespläne zu immer höherer Leistung anzustacheln.
Über die Grenzen dieser Gesetzmäßigkeit zu spekulieren ist eine regelmäßige Übung der Technischen Informatik und der ihr angeschlossenen Publizistik. Man dachte lange Zeit nur an Probleme der Chipfertigung oder an Quanteneffekte. Doch dann tauchte unversehens eine Wand auf: der Stromverbrauch.
Die Energieeffizienz der Chips hält mit ihrer Integrationsdichte nicht mehr mit. Sie laufen heiß.
Schon heute werden Chips mit ähnlichem Aufwand pro Kubikmillimeter gekühlt wie Kernkraftwerke, aber selbst das reicht in manchen Fällen nicht mehr aus. Mit der Folge, dass es unmöglich wird, sämtliche Schalter zugleich zu nutzen, die auf einem Chip hocken und auf Jobs warten – es sei denn, man wollte die Taktgeber langsamer stellen, damit die Chips nicht überhitzen.
Das Problem, seit mehr als zehn Jahren bekannt, verschlimmert sich zurzeit. Womöglich kann bald nur noch die Hälfte eines Chips arbeiten, während die andere stromlos bleiben muss, »dunkel«. Dark silicon ist ein im Wortsinn heißes Thema der Technischen Informatik geworden.
Chipdesigner versuchen derzeit, aus der Not eine Tugend zu machen. Untätige Areale auf dem Chip? Man kann sie nutzen, als lokalen Datenspeicher etwa, oder für Programme, die nur selten aufgerufen werden, dann aber besonders schnell operieren, weil sie spezialisiert sind: Algorithmen für die Verschlüsselung beispielsweise oder für die Qualitätsprüfung.
Das sind Möglichkeiten, mit dem Problem zu leben, nicht aber es zu lösen. Und leider gibt es mehr als diesen einen Engpass für die Hardware-Industrie, die Moore’s Gesetz einhalten will.
So steigt beispielsweise der elektrische Widerstand verhältnismäßig an, den die stets kleiner werdenden Verbindungen (Drähte, Direktkontakte) zwischen den digitalen Komponenten leisten. Hier hoffen die Chipfabrikanten auf Lösungen aus der Materialforschung. Die könnte auch gleich noch einen weiteren Beitrag leisten: Hoch willkommen sind sogenannte nichtvolatile Komponenten, deren Informationsgehalt also nicht regelmäßig elektrisch aufgefrischt werden muss; die existieren zwar schon, nur bisher kostet es zu viel Zeit und Energie, sie zu schalten.
Im Herbst 2015 wurde eine neue Art Transistor vorgestellt, der 90 Prozent weniger Strom als konventionelle Schalter verbrauchen soll und Quanteneffekte von sich bewegenden Elektronengruppen nutzt; er ist aus zwei kristallinen Schichten aufgebaut, die jeweils nur eine Atomlage dick sind. Bisher ist aber auch das nur eine Laborstudie.
Sehr wenig Energie sollen die »Neurochips« vom Typ True North verbrauchen, denen eine Forschergruppe bei IBM nachgeht; anstelle der hergebrachten Architektur mit Prozessoren und Speichern weist ihre Hardware eine Struktur auf, die Aspekten der biologischen Gehirne nachempfunden ist. Doch fehlt diesem neuromorphic computing nach Angaben seiner Verfechter noch viel Grundlagenwissen; bis zur Praxis bleibt der Weg weit. Andere Forscher experimentieren mit energiearm arbeitenden Transistoren aus Nanoröhrchen, sie ersinnen Verfahren, mit Licht anstelle von Elektronenwolken zu rechnen oder gar mit subatomaren Teilchen.
Ist irgendwo auf diesem weiten Feld ein Durchbruch durch die derzeitigen Grenzen des Chipdesigns zu erwarten? Gewissheit gibt es nicht, aber erstens wurde bisher noch jede Hürde genommen, und zweitens stimmt die Vielzahl der Möglichkeiten optimistisch. Müsste ich wetten, würde ich auf Sieg setzen.
Wäre ein solcher Durchbruch denn überhaupt so fürchterlich wichtig? Ja. Über die Notwendigkeit des Wirtschaftswachstums oder seiner unterschiedlichen Formen lässt sich lange diskutieren, sein Ausfall jedoch wäre im jetzigen Weltzustand eine Katastrophe. Fiele es aber aus, bliebe die Digitalisierung mit einem großen Knirschen stehen, denn sie ist der technische Kern der Globalisierung. Wir sollten der Technischen Informatik, die an den Zäunen der Physik rüttelt, daher gutes Gelingen wünschen.
Jeder ihrer Einfälle erfordert allerdings auch eine eigene Software. Ein Wechselspiel: Neue Hardware ruft nach neuer Software und umgekehrt.
Doch weil es im Prinzip leichter fällt, etwas zu programmieren, als eine neue Hardware zu entwickeln, bestimmt meist die Software, wohin die Reise geht. Anforderungen an die heutigen Grafikprozessoren beispielsweise werden in hohem Maße von der Spieleindustrie definiert, deren Programme immer realitätsnäher werden – wenn denn die Prozessoren mithalten können.
Software kommandiert die Hardware und setzt diese in Beziehung zu den Nutzern. Ohne Hardware existiert zwar keine Digitaltechnik, aber die Innovationen, mit denen die Welt verändert wird, entstanden in den vergangenen Jahren dort, wo programmiert wurde. Microsoft, Apple, Google, Facebook – auf die Software kommt es an. Sie ist das Zentrum der Innovation.
Software besteht aus Programmzeilen, aus Befehlen an die Hardware. Diese Befehle sind nach Vorschriften verfasst, deren Regelwerke »Sprachen« genannt werden. Zu Recht? Die Frage klingt etwas akademisch, doch ist sie von höchst praktischer Bedeutung, denn sie wirft die Frage auf, mit wem der Programmierer kommuniziert, wenn er Zeilen schreibt: mit der Maschine, mit anderen Programmierern oder mit uns Usern?
Von machine language war schon in den späten Vierzigerjahren des vorigen Jahrhunderts die Rede, doch so richtig verbreitete sich die Sprachmetapher erst in den Fünfzigern. Damals stieg die Zahl der Computer rapide an und mit ihr die Vielfalt der verwendeten Rechner. Wurden die verschiedenen Maschinentypen bis dahin nach jeweils eigenen Konventionen programmiert, wuchs nun das Interesse an einer für alle Computer gültigen Syntax. Software wurde ein eigener Forschungsgegenstand, mit Theoremen, Beweisen und alledem – was man auch als Rückkehr zu den Ursprüngen betrachten kann, denn das Programmieren war ja als mathematisches Konzept für Papier, Bleistift und Gehirn entstanden.
Um das Programmieren von seiner Bindung an einzelne Maschinentypen zu lösen, entstanden erste »Hochsprachen«, insbesondere FORTRAN, COBOL und ALGOL. In diesen Sprachen codierte Programme ließen sich nun überall einsetzen, unabhängig davon, vor welchen Rechnern die Programmierer jeweils saßen. Ferner fassten diese Sprachen Einzelaktionen der Rechner zu Gruppen zusammen und gaben diesen einen natürlichsprachlichen Namen wie zum Beispiel PRINT. Mithilfe von Befehlen wie PRINT, IF … THEN und anderen ließen sich wiederum übersichtlichere Programme stricken.
Damit änderten sich auch allmählich die Kriterien für gutes Programmieren. Es sollte den vorgegebenen Zweck nicht mehr nur schnell und kostensparend, sondern auch nachvollziehbar erreichen. Grundprinzip: »Gute Programmierer wissen, dass sie ihren Code in erster Linie für andere Programmierer und erst in zweiter Linie für Maschinen schreiben.«15
Es entstanden informelle Regeln, beispielsweise wie Kommentare zwischen den Befehlszeilen formuliert sein sollten oder wie Variablen und Programmteile zu benennen...

Inhaltsverzeichnis

  1. Wir sind nicht allein
  2. Unsere Dinge
  3. Unsere intelligenten Dinge
  4. Cyborgs und andere Phantasien
  5. Datenherrschaft
  6. Digitale Dissidenzen
  7. Überlegungen für ein Design
  8. Anhang