Book description
Das Buch bietet einen einfachen Zugang zum Aufbau von Deep-Learning-Modellen und erleichtert das Lernen mit farbenfrohen, lebendigen Illustrationen. Teil I erklärt, was Deep Learning ist, warum es so allgegenwärtig geworden ist und wie es sich auf Konzepte und Terminologien wie Künstliche Intelligenz, Machine Learning, Künstliche Neuronale Netze und Verstärkungslernen bezieht. Die einleitenden Kapitel sind vollgepackt mit anschaulichen Illustrationen, leicht verständlichen Analogien und charakterorientierten Erzählungen. Auf dieser Grundlage bieten die Autoren eine praktische Referenz und ein Tutorial zur Anwendung eines breiten Spektrums bewährter Techniken des Deep Learning. Die wesentliche Theorie wird mit so wenig Mathematik wie möglich behandelt und mit Python-Code beleuchtet. Die Theorie wird durch praktische »Durchläufe« unterstützt, die kostenfrei online verfügbar sind (Jupyter-Notebooks) und ein pragmatisches Verständnis aller wichtigen Deep-Learning-Ansätze und ihrer Anwendungen liefern: Machine Vision, Natural Language Processing, Bilderzeugung und Spielalgorithmen.
Table of contents
- Cover
- Titel
- Impressum
- Widmung
- Vorwort
- Einführung
- Danksagungen
- Inhaltsübersicht
- Inhaltsverzeichnis
-
Teil I Deep Learning vorgestellt
- 1 Biologisches und maschinelles Sehen
- 1.1 Das biologische Sehen
- 1.2 Maschinelles Sehen
- 1.2.1 Das Neocognitron
- 1.2.2 LeNet-5
- 1.2.3 Der traditionelle Machine-Learning-Ansatz
- 1.2.4 ImageNet und die ILSVRC
- 1.2.5 AlexNet
- 1.3 TensorFlow Playground
- 1.4 Quick, Draw!
- 1.5 Zusammenfassung
- 2 Menschen- und Maschinensprache
- 2.1 Deep Learning für Natural Language Processing
- 2.1.1 Deep-Learning-Netze lernen Repräsentationen automatisch
- 2.1.2 Natural Language Processing
- 2.1.3 Eine kurze Geschichte des Deep Learning für NLP
- 2.2 Repräsentationen von Sprache im Computer
- 2.2.1 1-aus-n-Repräsentationen von Wörtern
- 2.2.2 Wortvektoren
- 2.2.3 Wortvektor-Arithmetik
- 2.2.4 word2viz
- 2.2.5 Lokalistische versus verteilte Repräsentationen
- 2.3 Elemente der natürlichen menschlichen Sprache
- 2.4 Google Duplex
- 2.5 Zusammenfassung
- 3 Maschinenkunst
- 3.1 Eine feuchtfröhliche Nacht
- 3.2 Berechnungen auf nachgemachten menschlichen Gesichtern
- 3.3 Stiltransfer: Fotos in einen Monet verwandeln (und umgekehrt)
- 3.4 Machen Sie Ihre eigenen Skizzen fotorealistisch
- 3.5 Fotorealistische Bilder aus Text erzeugen
- 3.6 Bildverarbeitung mittels Deep Learning
- 3.7 Zusammenfassung
- 4 Spielende Maschinen
- 4.1 Deep Learning, KI und andere Monster
- 4.1.1 Künstliche Intelligenz
- 4.1.2 Machine Learning
- 4.1.3 Representation Learning
- 4.1.4 Künstliche neuronale Netze
- 4.1.5 Deep Learning
- 4.1.6 Maschinelles Sehen
- 4.1.7 Natural Language Processing
- 4.2 Drei Arten von Machine-Learning-Problemen
- 4.2.1 Supervised Learning
- 4.2.2 Unsupervised Learning
- 4.2.3 Reinforcement Learning
- 4.3 Deep Reinforcement Learning
- 4.4 Videospiele
- 4.5 Brettspiele
- 4.5.1 AlphaGo
- 4.5.2 AlphaGo Zero
- 4.5.3 AlphaZero
- 4.6 Manipulation von Objekten
- 4.7 Populäre Umgebungen für das Deep-Reinforcement-Learning
- 4.7.1 OpenAI Gym
- 4.7.2 DeepMind Lab
- 4.7.3 UnityML-Agents
- 4.8 Drei Arten von KI
- 4.8.1 Artificial Narrow Intelligence
- 4.8.2 Artificial General Intelligence
- 4.8.3 Artificial Super Intelligence
- 4.8.4 Zusammenfassung
-
Teil II Die nötige Theorie
- 5 Der (Code-)Karren vor dem (Theorie-)Pferd
- 5.1 Voraussetzungen
- 5.2 Installation
- 5.3 Ein flaches Netzwerk in Keras
- 5.3.1 Der MNIST-Datensatz handgeschriebener Ziffern
- 5.3.2 Ein schematisches Diagramm des Netzwerks
- 5.3.3 Die Daten laden
- 5.3.4 Die Daten umformatieren
- 5.3.5 Die Architektur eines neuronalen Netzes entwerfen
- 5.3.6 Trainieren eines Deep-Learning-Modells
- 5.4 Zusammenfassung
- 6 Künstliche Neuronen, die Hotdogs erkennen
- 6.1 Das Einmaleins der biologischen Neuroanatomie
- 6.2 Das Perzeptron
- 6.2.1 Der Hotdog/Nicht-Hotdog-Detektor
- 6.2.2 Die wichtigste Gleichung in diesem Buch
- 6.3 Moderne Neuronen und Aktivierungsfunktionen
- 6.3.1 Das Sigmoid-Neuron
- 6.3.2 Das Tanh-Neuron
- 6.3.3 ReLU: Rectified Linear Units
- 6.4 Ein Neuron auswählen
- 6.5 Zusammenfassung
- Schlüsselkonzepte
- 7 Künstliche neuronale Netze
- 7.1 Die Eingabeschicht
- 7.2 Vollständig verbundene Schichten
- 7.3 Ein vollständig verbundenes Netzwerk zum Erkennen von Hotdogs
- 7.3.1 Forwardpropagation durch die erste verborgene Schicht
- 7.3.2 Forwardpropagation durch nachfolgende Schichten
- 7.4 Die Softmax-Schicht eines Netzwerks zum Klassifizieren von Fastfood
- 7.5 Zurück zu unserem flachen Netzwerk
- 7.6 Zusammenfassung
- Schlüsselkonzepte
- 8 Deep Networks trainieren
- 8.1 Kostenfunktionen
- 8.1.1 Quadratische Kosten
- 8.1.2 Gesättigte Neuronen
- 8.1.3 Kreuzentropie-Kosten
- 8.2 Optimierung: Lernen, um die Kosten zu minimieren
- 8.2.1 Der Gradientenabstieg
- 8.2.2 Die Lernrate
- 8.2.3 Batch-Größe und stochastischer Gradientenabstieg
- 8.2.4 Dem lokalen Minimum entkommen
- 8.3 Backpropagation
- 8.4 Die Anzahl der verborgenen Schichten und der Neuronen anpassen
- 8.5 Ein mittleres Netz in Keras
- 8.6 Zusammenfassung
- Schlüsselkonzepte
- 9 Deep Networks verbessern
- 9.1 Die Initialisierung der Gewichte
- 9.1.1 Xavier-Glorot-Verteilungen
- 9.2 Instabile Gradienten
- 9.2.1 Verschwindende Gradienten
- 9.2.2 Explodierende Gradienten
- 9.2.3 Batch-Normalisierung
- 9.3 Modellgeneralisierung (Überanpassung vermeiden)
- 9.3.1 L1- und L2-Regularisierung
- 9.3.2 Dropout
- 9.3.3 Datenaugmentation
- 9.4 Intelligente Optimierer
- 9.4.1 Momentum
- 9.4.2 Nesterov-Momentum
- 9.4.3 AdaGrad
- 9.4.4 AdaDelta und RMSProp
- 9.4.5 Adam
- 9.5 Ein tiefes neuronales Netz in Keras
- 9.6 Regression
- 9.7 TensorBoard
- 9.8 Zusammenfassung
- Schlüsselkonzepte
-
Teil III Interaktive Anwendungen des Deep Learning
- 10 Maschinelles Sehen
- 10.1 Convolutional Neural Networks
- 10.1.1 Die zweidimensionale Struktur der visuellen Bilddarstellung
- 10.1.2 Berechnungskomplexität
- 10.1.3 Konvolutionsschichten
- 10.1.4 Mehrere Filter
- 10.1.5 Ein Beispiel für Konvolutionsschichten
- 10.2 Hyperparameter von Konvolutionsfiltern
- 10.2.1 Kernel-Größe
- 10.2.2 Schrittlänge
- 10.2.3 Padding
- 10.3 Pooling-Schichten
- 10.4 LeNet-5 in Keras
- 10.5 AlexNet und VGGNet in Keras
- 10.6 Residualnetzwerke
- 10.6.1 Schwindende Gradienten: Das Grauen der tiefen CNN
- 10.6.2 Residualverbindungen
- 10.6.3 ResNet
- 10.7 Anwendungen des maschinellen Sehens
- 10.7.1 Objekterkennung
- 10.7.2 Bildsegmentierung
- 10.7.3 Transfer-Lernen
- 10.7.4 Capsule Networks
- 10.8 Zusammenfassung
- Schlüsselkonzepte
- 11 Natural Language Processing
- 11.1 Natürliche Sprachdaten vorverarbeiten
- 11.1.1 Tokenisierung
- 11.1.2 Alle Zeichen in Kleinbuchstaben umwandeln
- 11.1.3 Stoppwörter und Interpunktionszeichen entfernen
- 11.1.4 Stemming
- 11.1.5 N-Gramme verarbeiten
- 11.1.6 Vorverarbeitung des kompletten Textkorpus
- 11.2 Worteinbettungen mit word2vec erzeugen
- 11.2.1 Die prinzipielle Theorie hinter word2vec
- 11.2.2 Wortvektoren evaluieren
- 11.2.3 word2vec ausführen
- 11.2.4 Wortvektoren plotten
- 11.3 Der Bereich unter der ROC-Kurve
- 11.3.1 Die Wahrheitsmatrix
- 11.3.2 Die ROC-AUC-Metrik berechnen
- 11.4 Klassifikation natürlicher Sprache mit vertrauten Netzwerken
- 11.4.1 Die IMDb-Filmkritiken laden
- 11.4.2 Die IMDb-Daten untersuchen
- 11.4.3 Die Länge der Filmkritiken standardisieren
- 11.4.4 Vollständig verbundenes Netzwerk
- 11.4.5 Convolutional Networks
- 11.5 Netzwerke für die Verarbeitung sequenzieller Daten
- 11.5.1 Recurrent Neural Networks
- 11.5.2 Ein RNN in Keras implementieren
- 11.5.3 Long Short-Term Memory Units
- 11.5.4 Bidirektionale LSTMs
- 11.5.5 Gestapelte rekurrente Modelle
- 11.5.6 Seq2seq und Attention
- 11.5.7 Transfer-Lernen in NLP
- 11.6 Nichtsequenzielle Architekturen: Die funktionale API in Keras
- 11.7 Zusammenfassung
- Schlüsselkonzepte
- 12 Generative Adversarial Networks
- 12.1 Die grundlegende GAN-Theorie
- 12.2 Der Quick, Draw!-Datensatz
- 12.3 Das Diskriminator-Netzwerk
- 12.4 Das Generator-Netzwerk
- 12.5 Das Adversarial-Netzwerk
- 12.6 Das GAN-Training
- 12.7 Zusammenfassung
- Schlüsselkonzepte
- 13 Deep Reinforcement Learning
- 13.1 Die grundlegende Theorie des Reinforcement Learning
- 13.1.1 Das Cart-Pole-Spiel
- 13.1.2 Markow-Entscheidungsprozesse
- 13.1.3 Die optimale Strategie
- 13.2 Die grundlegende Theorie von Deep-Q-Learning-Netzwerken
- 13.2.1 Value-Funktionen
- 13.2.2 Q-Value-Funktionen
- 13.2.3 Einen optimalen Q-Value schätzen
- 13.3 Einen DQN-Agenten definieren
- 13.3.1 Initialisierungsparameter
- 13.3.2 Das neuronale-Netze-Modell des Agenten bauen
- 13.3.3 Sich an das Spiel erinnern
- 13.3.4 Training über Memory Replay
- 13.3.5 Eine Aktion auswählen
- 13.3.6 Speichern und Laden der Modellparameter
- 13.4 Mit einer OpenAI-Gym-Umgebung interagieren
- 13.4.1 Hyperparameter-Optimierung mit SLM Lab
- 13.5 Agenten jenseits von DQN
- 13.5.1 Policy-Gradienten und der REINFORCE-Algorithmus
- 13.5.2 Der Actor-Critic-Algorithmus
- 13.6 Zusammenfassung
- Schlüsselkonzepte
-
Teil IV KI und Sie
- 14 Mit Ihren eigenen Deep-Learning-Projekten beginnen
- 14.1 Ideen für Deep-Learning-Projekte
- 14.1.1 Machine Vision und GANs
- 14.1.2 Natural Language Processing
- 14.1.3 Deep Reinforcement Learning
- 14.1.4 Ein vorhandenes Machine-Learning-Projekt überführen
- 14.2 Ressourcen für weitere Projekte
- 14.2.1 Gesellschaftlich nützliche Projekte
- 14.3 Der Modellierungsprozess einschließlich der Anpassung der Hyperparameter
- 14.3.1 Automatisierung der Hyperparameter-Suche
- 14.4 Deep-Learning-Bibliotheken
- 14.4.1 Keras und TensorFlow
- 14.4.2 PyTorch
- 14.4.3 MXNet, CNTK, Caffe und so weiter
- 14.5 Software 2.0
- 14.6 Die kommende Artificial General Intelligence
- 14.7 Zusammenfassung
-
Anhang
- A Die formale Notation neuronaler Netze
- B Backpropagation
- C PyTorch
- C.1 PyTorch-Eigenschaften
- C.1.1 Das Autograd System
- C.1.2 Das Define-by-Run-Framework
- C.1.3 PyTorch im Vergleich mit TensorFlow
- C.2 PyTorch in der Praxis
- C.2.1 Die PyTorch-Installation
- C.2.2 Die grundlegenden Bausteine in PyTorch
- C.2.3 Ein tiefes neuronales Netz in PyTorch bauen
- D Bildnachweise
- Abbildungsverzeichnis
- Tabellenverzeichnis
- Beispielverzeichnis
- Fußnoten
- Index
Product information
- Title: Deep Learning illustriert
- Author(s):
- Release date: August 2020
- Publisher(s): dpunkt
- ISBN: 9783864906633
You might also like
book
Praxiseinstieg Deep Learning
Sie wollten immer schon mal wissen, was sich hinter dem Begriff »Deep Learning« verbirgt? Deep Learning …
book
Generatives Deep Learning
Generative Modelle haben sich zu einem der spannendsten Themenbereiche der Künstlichen Intelligenz entwickelt: Mit generativem Deep …
book
PyTorch für Deep Learning
Mit diesem praxisorientierten Buch meistern Sie die Methoden des Deep Learning, einer Teildisziplin des Machine Learning, …
book
Deep Learning Kochbuch
Lassen Sie sich von Deep Learning nicht abschrecken! Dank Frameworks wie Keras und TensorFlow ist der …