It's alive
eBook - ePub

It's alive

Wie künstliche Intelligenz unser Leben verändern wird

  1. 352 Seiten
  2. German
  3. ePUB (handyfreundlich)
  4. Über iOS und Android verfügbar
eBook - ePub

It's alive

Wie künstliche Intelligenz unser Leben verändern wird

Angaben zum Buch
Buchvorschau
Inhaltsverzeichnis
Quellenangaben

Über dieses Buch

Haben Sie sich auch schon einmal gefragt, ob Maschinen wirklich denken können und ob sie vielleicht sogar intelligenter sind als wir?Der australische Informatiker Toby Walsh nimmt uns mit auf eine unterhaltsame und inspirierende Reise durch die Welt der Künstlichen Intelligenz. Er erzählt, wie KI entstand, wie sie unsere Gesellschaft, Wirtschaft und sogar uns selbst bereits verändert hat und was sie für unsere Zukunft bedeutet. Denn denkende Maschinen sind längst keine Science-Fiction mehr: Ohne sie könnte keine Suchmaschine sekundenschnell Antworten liefern, ohne sie wären selbstfahrende Autos undenkbar und unsere Smartphones nur Telefone.Auch wenn KI unser Leben bequemer macht, fürchten sich viele nicht umsonst vor der Macht der Maschinen. Walsh nimmt diese Ängste ernst: Werden denkende Maschinen uns in Zukunft die Jobs wegnehmen? Und wenden sie sich womöglich letztlich gegen die Menschheit selbst?Walsh hilft auch den Nicht-Experten unter uns herauszufinden, was Künstliche Intelligenz kann, was sie wohl nie können wird und wie viel Kopfzerbrechen uns ihre Weiterentwicklung in Zukunft bereiten sollte. Eine Richtschnur sind dabei seine zehn erstaunlichen Vorhersagen über unser Leben mit Künstlicher Intelligenz im Jahr 2050: Denn die Zukunft hat längst begonnen!

Häufig gestellte Fragen

Gehe einfach zum Kontobereich in den Einstellungen und klicke auf „Abo kündigen“ – ganz einfach. Nachdem du gekündigt hast, bleibt deine Mitgliedschaft für den verbleibenden Abozeitraum, den du bereits bezahlt hast, aktiv. Mehr Informationen hier.
Derzeit stehen all unsere auf Mobilgeräte reagierenden ePub-Bücher zum Download über die App zur Verfügung. Die meisten unserer PDFs stehen ebenfalls zum Download bereit; wir arbeiten daran, auch die übrigen PDFs zum Download anzubieten, bei denen dies aktuell noch nicht möglich ist. Weitere Informationen hier.
Mit beiden Aboplänen erhältst du vollen Zugang zur Bibliothek und allen Funktionen von Perlego. Die einzigen Unterschiede bestehen im Preis und dem Abozeitraum: Mit dem Jahresabo sparst du auf 12 Monate gerechnet im Vergleich zum Monatsabo rund 30 %.
Wir sind ein Online-Abodienst für Lehrbücher, bei dem du für weniger als den Preis eines einzelnen Buches pro Monat Zugang zu einer ganzen Online-Bibliothek erhältst. Mit über 1 Million Büchern zu über 1.000 verschiedenen Themen haben wir bestimmt alles, was du brauchst! Weitere Informationen hier.
Achte auf das Symbol zum Vorlesen in deinem nächsten Buch, um zu sehen, ob du es dir auch anhören kannst. Bei diesem Tool wird dir Text laut vorgelesen, wobei der Text beim Vorlesen auch grafisch hervorgehoben wird. Du kannst das Vorlesen jederzeit anhalten, beschleunigen und verlangsamen. Weitere Informationen hier.
Ja, du hast Zugang zu It's alive von Toby Walsh, Naemi Schuhmacher,Sonja Schuhmacher im PDF- und/oder ePub-Format sowie zu anderen beliebten Büchern aus Technik & Maschinenbau & Robotertechnik. Aus unserem Katalog stehen dir über 1 Million Bücher zur Verfügung.

Information

Jahr
2018
ISBN
9783896845443
Teil II:
Die Künstliche Intelligenz in der Gegenwart

3. Künstliche Intelligenz heute

Schwierige Probleme zerlegt man am besten immer erst einmal in kleinere Teile. Das Problem des Baus einer denkenden Maschine umfasst unterschiedliche Aspekte. Wie zu erwarten, konzentrieren sich viele Forscher, die an der Künstlichen Intelligenz arbeiten, ausschließlich auf einen dieser Aspekte. Natürlich gibt es auch Leute, die meinen, dass man das Problem grundsätzlich nicht zerlegen kann. Aber das menschliche Gehirn besteht aus verschiedenen Bereichen, und diese übernehmen offenbar verschiedene Aufgaben. Da scheint es vernünftig, das Problem des Baus von denkenden Maschinen möglichst zu vereinfachen, indem man seine Bestandteile untersucht.

Die vier Stämme

An den verschiedenen Aspekten des Baus einer denkenden Maschine arbeiten vier »Stämme«. Natürlich ist das eine Vereinfachung der Realität, denn in der Praxis ist die intellektuelle Landkarte der KI hochgradig komplex. Die KI-Forscher in Stämme zu unterteilen ist aber hilfreich, will man die Topografie verstehen.

Die Lernenden

Bei unserer Geburt können wir nicht sprechen, wissen nicht, was wir gefahrlos essen dürfen, können nicht laufen, haben keinen Schimmer von der Sonne und den Sternen und ahnen nichts von den Newton’schen Gesetzen. Aber wir lernen all dies und noch mehr. Folglich besteht eine Lösungsmöglichkeit darin, einen Computer so zu bauen, dass er wie wir Menschen lernfähig ist. Damit umgehen wir auch das Problem, das gesamte Wissen zu erfassen, das wir in jungen Jahren erwerben und das man in der realen Welt braucht. Wie man beim CYC-Projekt feststellen musste, ist es eine langwierige und mühselige Aufgabe, einem Roboter das Alltagswissen beizubringen, das er benötigt: Wasser kann man nicht aufheben, der Himmel ist blau, Schatten sind keine Gegenstände und so weiter.
Im Stamm der Lernenden hat mein Kollege Pedro Domingos fünf »Religionsgemeinschaften« ausgemacht: die Symbolisten, die Konnektionisten, die Evolutionäre, die Bayesianer und die Analogisierer.98
Die Symbolisten sind Leibniz-Schüler, die Ideen aus der Logik auf das Lernen übertragen. In der Logik ziehen wir deduktive Schlüsse, folgern also, dass B aus A folgt. Die Symbolisten kehren diesen Vorgang um und schlussfolgern »induktiv«, um herauszufinden, was B verursacht hat. Weil wir B beobachten, nehmen sie an, A müsse die Ursache sein.
Die Konnektionisten hingegen arbeiten mit Ideen aus den Neurowissenschaften, die weniger mit Symbolen wie A und B oder 0 und 1 und mehr mit kontinuierlichen Signalen zu tun haben, wie wir sie im menschlichen Gehirn beobachten. Sie wenden Lernmechanismen ähnlich denen unserer Neuronen an, um herauszufinden, wie wir den Input unserer künstlichen Neuronen am besten gewichten. Die »Deep Learners« gehören zu den augenfälligsten Mitgliedern dieser Religion.
Die dritte Religionsgemeinschaft bilden die Evolutionäre, die sich von der Natur inspirieren lassen. Sie nutzen ähnliche Mechanismen wie die Evolution – »Survival of the Fittest«, also das Überleben der bestangepassten Individuen –, um die besten Rechenmodelle für ein Problem zu entwickeln.
Die vierte Gruppe sind die Bayesianer. Sie nähern sich dem Problem des Lernens mit statistischen Methoden, die auf Reverend Thomas Bayes zurückgehen.99 Sie beurteilen die Erfolgswahrscheinlichkeit ihrer Modelle aufgrund von Beobachtungsdaten.
Die letzte Religionsgemeinschaft sind die Analogisierer. Sie bemühen sich, ein Problem in einem anderen Raum abzubilden, der häufig viel mehr Dimensionen hat und in dem die Verbindungen zwischen ähnlichen Gegenständen klarwerden könnten. Ihre Lernmethoden tragen fantasievolle Namen wie »Support Vector Machine«. Mit diesen Methoden gelangt man zu einer anderen Sichtweise des Problems, wobei ähnliche Gegenstände – etwa alle Beobachtungen von Katzen – nahe beisammenliegen. Jede neue Beobachtung, die diesen alten Beobachtungen nahekommt, wird als Katze gedeutet.

Die Logiker

Beim zweiten Stamm handelt es sich um die geistigen Jünger von Leibniz, Hobbes und Boole. Sie erforschen, wie man Maschinen mit expliziten Denkregeln ausstatten kann. Maschinen können sich mit Wissen beschäftigen, das von vornherein explizit für sie codiert wurde oder das sie durch Interaktion mit der wirklichen Welt erlernt haben. Daher sind die Logiker teilweise auf die Vorarbeit jener vom Stamm der Lernenden angewiesen.
Menschliche Gedankengänge sind weitaus komplexer als das schlichte algebraische Modell, von dem Boole träumte. Die wirkliche Welt besteht nicht bloß aus Nullen und Einsen. Wir müssen mit unvollständigem Wissen, mit widersprüchlichem Wissen, mit Unsicherheit bezüglich des Wissens und mit Wissen über Wissen zurechtkommen. Die Logiker versuchen daher, formale logische Modelle zu entwickeln, die mit Teilinformationen, widersprüchlichen Informationen, Informationen über Wahrscheinlichkeiten und mit Informationen über Informationen (sogenannten Meta-Informationen) fertigwerden.
Zu den Logikern zählen diverse Gruppen. Zum Beispiel der harte Kern der deduktiven Logiker. Einige von ihnen versuchen, Computern beizubringen, mathematisch zu denken, Theoreme zu beweisen, ja sogar neue Mathematiken zu erfinden. Eine andere Gruppe konzentriert sich auf Planung – sie will Computer veranlassen, Handlungsabfolgen auf ein bestimmtes Ziel auszurichten. Andere Gruppen innerhalb des Stamms arbeiten vor allem an Reasoning-Aufgaben, wie das Updaten einer Datenbank mithilfe neuer und vielleicht widersprüchlicher Informationen.

Die Roboteringenieure

Die menschliche Intelligenz ist ein komplexes Phänomen. Sie entsteht teilweise aus unseren Interaktionen mit der realen Welt. Der dritte Stamm, die Roboteringenieure, baut Maschinen, die in der wirklichen Welt agieren: Sie können Schlussfolgerungen über das eigene Handeln anstellen und aus ihren Interaktionen lernen, wie wir es tun. Daher gibt es Schnittmengen zwischen den Stämmen der Roboteringenieure, der Lernenden und der Logiker. Natürlich müssen Roboter die Welt, in der sie handeln, auch wahrnehmen können, deshalb arbeiten einige Angehörige des Stamms am maschinellen Sehen. Die Sehkraft hilft uns nicht nur, uns in der realen Welt zu bewegen, sie ermöglicht uns auch, etwas über die Welt zu lernen.

Die Linguisten

Die Linguisten sind der vierte Stamm, der sich mit dem Bau denkender Maschinen beschäftigt. Sprache ist ein wichtiger Aspekt menschlichen Denkens. Damit Maschinen denken können, müssen sie folglich natürliche Sprachen verstehen und sich ihrer bedienen. Linguisten entwickeln Computerprogramme, die geschriebene Texte analysieren, verstehen und Fragen beantworten – ja sogar in andere Sprachen übersetzen können. Manche arbeiten auch an Spracherkennung, der Umsetzung von Audiosignalen in Schriftsprache.

Die beiden Kontinente

Weiten wir unsere Metapher von den Stämmen noch ein wenig aus. In der KI-Forschung gibt es überdies zwei »Kontinente«: den Kontinent der Scruffys und den Kontinent der Neats, man könnte auch sagen, der Schmuddelkinder und der Saubermänner. Die Saubermänner streben nach eleganten, präzisen Mechanismen, mit denen sich denkende Maschine konstruieren lassen. Leibniz war einer der ersten Saubermänner. Auch der berühmte John McCarthy gehörte in diese Kategorie. Die Schmuddelkinder gehen hingegen davon aus, Intelligenz sei zu komplex und chaotisch, um ihr mit einfachen, präzisen Mechanismen beizukommen. Zu den bekanntesten Schmuddelkindern zählt Rodney Brooks. Er baut Roboter ohne explizite logische Kontrollstrukturen. Seine Roboter sehen, hören und agieren in der realen Welt, und aus ihren Interaktionen entstehen komplexe Verhaltensweisen. Die Scruffys sind sozusagen die Hacker der KI-Welt. Tatsächlich lässt sich die Entstehung der Hacker-Kultur teilweise bis zu den vielen Scruffys bei CSAIL zurückverfolgen, dem berühmten Computer Science and Artificial Intelligence Laboratory des MIT.
Mitglieder der vier Stämme – der Lernenden, der Logiker, der Roboteringenieure und der Linguisten – findet man auf beiden Kontinenten. Einige Anhänger maschineller Lernverfahren sind zum Beispiel Scruffys, andere zählen zu den Neats. Ähnlich verhält es sich bei den Linguisten. Dagegen überrascht es kaum, dass fast alle vom Stamm der Logiker Neats sind. Unter den Roboteringenieuren dominieren hingegen die Scruffys. Sie haben es mit einem Problem zu tun, das komplex und chaotisch ist, da bietet sich eine Scruffy-Methode an.
Sehen wir uns näher an, wie weit die Entwicklung auf den Territorien der einzelnen Stämme inzwischen gediehen ist.

Maschinelles Lernen – Stand der Technik

Dass Künstliche Intelligenz heute so im Rampenlicht steht, liegt an den spektakulären Fortschritten, die der Stamm der Lernenden erzielt. Vor allem Methoden des Deep Learning zeigen eine beeindruckende Leistung, die vielfach andere altbewährte Techniken in den Schatten stellt. Zum Beispiel können Spracherkennungssysteme wie Deep Speech 2 von Baidu, die auf Deep Learning beruhen, schon heute bei Transkription von gesprochener Sprache mit Menschen konkurrieren. Und wie bereits beschrieben, schlug das AlphaGo-Programm von Google Anfang 2016 einen der besten Go-Spieler der Welt, nachdem die Software monatelang gegen sich selbst gespielt und aus ihren Fehlern gelernt hatte.
Allerdings wäre es falsch, nun anzunehmen, das maschinelle Lernen hätte denkende Maschinen in greifbare Nähe gerückt und Techniken wie das Deep Learning fehlte nur noch etwas Feinschliff und das Problem der Intelligenz sei geknackt. Ein Grund dafür, dass Deep Learning nicht die Lösung bringt, ist, dass es Unmengen an Daten benötigt. Bei einem Spiel wie Go ist das möglich: Es gibt Datenbanken historischer Spiele, ausgetragen von Go-Meistern, von denen ein Programm lernen kann. Auch können wir die Maschine gegen sich selbst spielen lassen und dabei unbegrenzt weitere Datenmengen generieren. In anderen Bereichen sind Daten jedoch schwerer zu beschaffen. In vielen Domänen der Robotik können Physik und Technik einer schnellen Datensammlung Grenzen setzen – der Roboter soll natürlich nicht seine Selbstzerstörung riskieren, wenn er lernt und Fehler macht. Es gibt auch Bereiche, in denen wenige Daten existieren. So möchten wir womöglich die Erfolgsraten für Herz- oder Lungentransplantationen vorhersagen, aber die Datenmenge, auf die wir Vorhersagen stützen können, ist begrenzt, weil derartige Operationen weltweit nur im dreistelligen Bereich durchgeführt werden. Das Deep Learning mit seinem enormen Datenbedarf steht hier vor einer echten Herausforderung. Im Vergleich dazu lernen Menschen bemerkenswert schnell, und wir brauchen dafür sehr viel weniger Daten. Nach Auskunft von Go-Experten hat AlphaGo Spieltaktiken entwickelt, die bisher unbekannt waren, und zwar vor allem in den Eröffnungen. Dennoch brauchte der Südkoreaner Lee Sedol, einer der stärksten Go-Spieler der Welt, nur drei Spiele, und er hatte genug über AlphaGo gelernt, um die vierte Partie zu gewinnen. AlphaGo hingegen hat Milliarden Spiele gespielt, so viele, wie ein Mensch nicht einmal in mehreren Leben spielen könnte. Alle Achtung also vor Lee Sedol. Ein kleiner Sieg für die Menschheit bei dieser Niederlage gegen die Maschine.
Es gibt mehrere Gründe, warum Deep Learning nicht alle Antworten auf das Problem des Baus denkender Maschinen liefern wird. Erstens werden wir häufig von denkenden Maschinen erwarten, dass sie ihre Entscheidungen erklären. Was beim Deep Learning vor sich geht, ist aber von außen nicht einsehbar, es findet in einer Art Black Box statt. Es kann nicht einleuchtend erklärt werden, warum ein bestimmter Input ein bestimmtes Ergebnis erzeugt. Wenn wir dem System vertrauen sollen, dann wollen wir wissen, wie es zu seinen Entscheidungen kommt. Zweitens erwarten wir meist, dass bestimmte Verhaltensweisen garantiert erfolgen. Ein selbstfahrendes Auto muss an einer roten Ampel stets halten. Eine Flugsicherungssoftware darf niemals zwei Flugzeuge im selben Sektor zulassen. Deep Learning kann solche Garantien nicht geben, dazu brauchen wir wohl stärker regelbasierte Systeme. Drittens bewegt sich die Komplexität des menschlichen Gehirns in einer Größenordnung, die weit jenseits der künstlichen Netzwerke liegt, die heute mit Deep Learning arbeiten. Das menschliche Gehirn besteht aus Milliarden Neuronen mit Billionen Synapsen, das Deep Learning verwendet Tausende künstlicher Neuronen mit Millionen Verknüpfungen. Es ist keine Kleinigkeit, dies in eine Größenordnung zu skalieren, die es mit dem menschlichen Gehirn aufnehmen kann. Überdies hat das Gehirn viele verschiedene Neuronentypen und zahlreiche unterschiedliche Strukturen für seine vielfältigen Aufgaben. Daher werden wir in einer denkenden Maschine vermutlich eine ähnliche Spezialisierung brauchen.
Bei all diesen Einschränkungen ist das maschinelle Lernen eine Technologie, die Fortschritte macht und ohne allzu große Hilfe durch uns Menschen viele Probleme lösen kann. Aber sie ist nicht an dem Punkt angelangt, an dem wir einfach auf den Knopf drücken – Menschen müssen immer noch weitgehend die Auswahl der Algorithmen, den Parameterabgleich und, was man als Featureentwicklung bezeichnet, übernehmen, damit die Technik funktioniert. Das maschinelle Lernen stößt grundsätzlich wegen fehlender Input-Daten an seine Grenzen. Will man zum Beispiel vorhersagen, ob ein Käufer ein Sonderangebot nutzt, benötigt man zusätzliche Daten für das Modell – zum Beispiel, wie lange es her ist, seit er zuletzt etwas von der Firma gekauft hat.
Den Stand der Technik auf diesem Gebiet können wir nicht erörtern, ohne die Rolle zu erwähnen, die große Datenmengen bei den jüngsten Erfolgen des maschinellen Lernens gespielt haben. Viele Branchen setzen auf Big Data, um mithilfe des maschinellen Lernens praktische Anwendungen zu erstellen. Banken zum Beispiel nutzen große Datenmengen und maschinelles Lernen, um Kreditkartenbetrug aufzudecken. Online-Shops und -Dienste wie Amazon und Netflix greifen darauf zurück, um ihre Produktempfehlungen abzustimmen. Die NASA hat maschinelles Lernen auf einen großen Sternkatalog angewandt und konnte so einen neuen Sterntyp identifizieren.
Generell hilft uns maschinelles Lernen, Daten zu klassifizieren, Daten-Cluster zu erstellen und Vorhersagen über Daten zu machen. Ich werde später noch auf den Stand der Technik eingehen, den maschinelles Lernen bei der Identifizierung von Bildern, beim autonomen Fahren und bei der Übersetzung fremdsprachiger Texte erreicht hat. Maschinelles Lernen wird jedoch von Unternehmen in vielen anderen Bereichen sinnvoll angewandt. Sie alle aufzuzählen ist unmöglich, aber ich werde ein paar Beispiele nennen, um die Breite des Tätigkeitsfelds zu illustrieren. Maschinelles Lernen wird bereits erfolgreich genutzt, um Schadsoftware aufzuspüren, um stationäre Aufnahmen in Krankenhäusern zu prognostizieren, um Fehler in juristischen Verträgen zu suchen, um Geldwäsche zu verhindern, um Vögel an ihrem Gesang zu erkennen, um die Funktion von Genen zu erforschen, um neue Drogen aufzuspüren, um Verbrechen vorherzusagen und Polizeipatrouillen entsprechend zu planen, um die besten Nutzpflanzen zu identifizieren, um Software zu testen und (was nicht unumstritten ist) um Aufsätze zu benoten. Womöglich wäre es leichter, die Bereiche aufzuzählen, in denen maschinelles Lernen nicht genutzt wird. Ach was, vergessen Sie’s; es fällt einem fast kein Gebiet ein, auf dem maschinelles Lernen nicht bereits heute im Einsatz wäre.
Allerdings gibt es mehrere Bereiche, in denen es die Techniken des maschinellen Lernens schwer haben. Bereits erwähnt wurden Begründungen. Anders als Menschen sind viele Algorithmen nicht in der Lage zu erklären, wie sie zu ihren Antworten gelangt sind. Ein weiterer Bereich ist das Lernen mit begrenzten Datenmengen sowie mit »verrauschten« Daten. Maschinelles Lernen ist noch weit davon entfernt, in diesen Situationen an die Leistung von Menschen heranzureichen. Eine dritte Herausforderung ist das problemübergreifende Lernen. Menschen können ihr Fachwissen auf einem Gebiet nutzen, um sich schnell in ein anderes einzuarbeiten. Ein guter Tennisspieler wird sich im Badminton auch nicht schlecht schlagen. Im Vergleich dazu müssen die Algorithmen des maschinellen Lernens immer wieder bei null anfangen. Ein letzter Bereich, in dem maschinelles Lernen vor einer Herausforderung steht, ist das sogenannte unüberwachte Lernen. Viele der jüngsten Vorstöße im maschinellen Lernen erfolgten im Rahmen des überwachten Lernens. Hier gibt...

Inhaltsverzeichnis

  1. Prolog
  2. Teil I: Die Vergangenheit der Künstlichen Intelligenz
  3. Teil II: Die Künstliche Intelligenz in der Gegenwart
  4. Teil III: Die Zukunft der Künstlichen Intelligenz
  5. Anhang