Details

Deep Learning kompakt für Dummies


Deep Learning kompakt für Dummies


Für Dummies 1. Aufl.

von: John Paul Mueller, Luca Massaron

22,99 €

Verlag: Wiley-VCH
Format: EPUB
Veröffentl.: 03.04.2020
ISBN/EAN: 9783527825974
Sprache: deutsch
Anzahl Seiten: 366

DRM-geschütztes eBook, Sie benötigen z.B. Adobe Digital Editions und eine Adobe ID zum Lesen.

Beschreibungen

Wollen Sie sich über Deep Learning informieren und vielleicht erste kleine Schritte machen, diese Technologie zu nutzen? Dann hilft Ihnen dieses Buch. Die Autoren erklären Ihnen, welchen Einfluss Deep Learning im Alltag hat und in welcher Beziehung es zu maschinellem Lernen steht. Sie sammeln erste eigene Erfahrungen mit vorgegebenen Python-Programmen und verstehen so die Funktionsweise von neuronalen Netzen und wie Bilder klassifiziert und Sprache sowie Text verarbeitet werden. So ist dieses Buch ein schneller erster und verständlicher Einstieg in Deep Learning.
<p><b>Über die Autoren</b> <b>9</b></p> <p>Widmung von John Mueller 9</p> <p>Widmung von Luca Massaron 10</p> <p>Danksagung von John Mueller 10</p> <p>Danksagung von Luca Massaron 10</p> <p><b>Einführung</b> <b>21</b></p> <p>Über dieses Buch 21</p> <p>Törichte Annahmen über den Leser 23</p> <p>Symbole, die in diesem Buch verwendet werden 23</p> <p>Weitere Ressourcen 24</p> <p>Wie es weitergeht 24</p> <p><b>Teil I: Einführung in Deep Learning 27</b></p> <p><b>Kapitel 1 Einführung in Deep Learning</b> <b>29</b></p> <p>Definition von Deep Learning 30</p> <p>Künstliche Intelligenz als Oberbegriff 30</p> <p>Die Rolle der KI 32</p> <p>Maschinelles Lernen als Teil der KI 35</p> <p>Deep Learning als Form des maschinellen Lernens 37</p> <p>Deep Learning in der Praxis 39</p> <p>Der Prozess des Lernens 39</p> <p>Aufgabenbewältigung mit Deep Learning 39</p> <p>Deep Learning als Bestandteil größerer Anwendungen 40</p> <p>Programmierumgebung für Deep Learning 40</p> <p>Deep Learning: Hype vs Realität 43</p> <p>Ihre ersten Schritte 43</p> <p>Ungeeignete Szenarien für Deep Learning 43</p> <p><b>Kapitel 2 Maschinelles Lernen</b> <b>45</b></p> <p>Definition von maschinellem Lernen 45</p> <p>Funktionsweise von maschinellem Lernen 46</p> <p>Lernen durch unterschiedliche Strategien 47</p> <p>Training, Validierung und Test 49</p> <p>Suche nach Generalisierungen 51</p> <p>Der Einfluss von Bias 51</p> <p>Beachtung der Komplexität des Modells 52</p> <p>Lernstrategien und Arten von Algorithmen 52</p> <p>Fünf wesentliche Strategien 53</p> <p>Verschiedene Arten von Algorithmen 54</p> <p>Sinnvolle Einsatzbereiche für maschinelles Lernen 59</p> <p>Anwendungsszenarien für maschinelles Lernen 59</p> <p>Die Grenzen des maschinellen Lernens 62</p> <p><b>Kapitel 3 Installation und Verwendung von Python</b> <b>65</b></p> <p>Verwendung von Python in diesem Buch 66</p> <p>Installation von Anaconda 66</p> <p>Anaconda von Continuum Analytics 67</p> <p>Installation von Anaconda unter Linux 67</p> <p>Installation von Anaconda unter Mac OS X 68</p> <p>Installation von Anaconda unter Windows 70</p> <p>Jupyter Notebook 72</p> <p>Verwendung von Jupyter Notebook 73</p> <p>Verwendete Datensätze in diesem Buch 79</p> <p>Erstellen einer Anwendung 81</p> <p>Die Arbeit mit Zellen 81</p> <p>Hinzufügen von Dokumentationszellen 82</p> <p>Andere Zellarten 83</p> <p>Einrückung von Codezeilen 83</p> <p>Hinzufügen von Kommentaren 85</p> <p>Weitere Informationen zu Python 88</p> <p>Arbeiten in der Cloud 89</p> <p>Verwendung der Datensätze und Kernels von Kaggle 89</p> <p>Verwendung von Google Colaboratory 89</p> <p><b>Kapitel 4 Frameworks für Deep Learning</b> <b>93</b></p> <p>Das Framework-Prinzip 94</p> <p>Unterschiede zwischen Frameworks 94</p> <p>Hohe Beliebtheit von Frameworks 95</p> <p>Frameworks speziell für Deep Learning 96</p> <p>Auswahl eines Frameworks 97</p> <p>Einfache Frameworks für Deep Learning 98</p> <p>Kurzvorstellung von TensorFlow 101</p> <p><b>Teil II: Grundlagen von Deep Learning 113</b></p> <p><b>Kapitel 5 Rechnen mit Matrizen</b> <b>115</b></p> <p>Nötige mathematische Grundlagen 116</p> <p>Die Arbeit mit Daten 116</p> <p>Matrixdarstellung von Daten 117</p> <p>Skalar-, Vektor- und Matrixoperationen 118</p> <p>Erzeugung einer Matrix 119</p> <p>Multiplikation von Matrizen 121</p> <p>Fortgeschrittene Matrixoperationen 123</p> <p>Datenanalysen mit Tensoren 125</p> <p>Effektive Nutzung von Vektorisierung 127</p> <p>Der Lernprozess als Optimierung 128</p> <p>Kostenfunktionen 128</p> <p>Minimierung des Fehlers 129</p> <p>Die richtige Richtung 130</p> <p><b>Kapitel 6 Grundlagen der linearen Regression</b> <b>133</b></p> <p>Kombination von Variablen 134</p> <p>Die einfache lineare Regression 134</p> <p>Die multiple lineare Regression 135</p> <p>Verwendung des Gradientenabstiegs 137</p> <p>Die lineare Regression in Aktion 138</p> <p>Vermischung von Variablen unterschiedlichen Typs 140</p> <p>Modellierung der Antworten 140</p> <p>Modellierung der Merkmale 141</p> <p>Umgang mit komplexen Zusammenhängen 142</p> <p>Nutzung von Wahrscheinlichkeiten 144</p> <p>Spezifikation einer binären Antwort 144</p> <p>Umwandlung numerischer Schätzungen in Wahrscheinlichkeiten 145</p> <p>Schätzung der richtigen Merkmale 148</p> <p>Irreführende Ergebnisse durch inkompatible Merkmale 148</p> <p>Vermeidung einer Überanpassung durch Merkmalsauswahl und Regularisierung 149</p> <p>Lernen aus einzelnen Beispielen 150</p> <p>Verwendung des Gradientenabstiegs 150</p> <p>Stochastisches Gradientenabstiegsverfahren 151</p> <p><b>Kapitel 7 Einführung in neuronale Netze</b> <b>155</b></p> <p>Das faszinierende Perzeptron 156</p> <p>Höhen und Tiefen des Perzeptrons 156</p> <p>Die Funktionsweise des Perzeptrons 157</p> <p>Trennbare und nicht trennbare Daten 158</p> <p>Komplexere Lernverfahren und neuronale Netze 160</p> <p>Das Neuron als Grundbaustein 160</p> <p>Vorwärtsausrichtung in Feedforward-Netzen 162</p> <p>Schichten und noch mehr Schichten 164</p> <p>Lernen mittels Rückwärtspropagierung 167</p> <p>Vermeidung von Überanpassung 170</p> <p><b>Kapitel 8 Entwurf eines einfachen neuronalen Netzes</b> <b>173</b></p> <p>Grundlegende Funktionsweise neuronaler Netze 173</p> <p>Definition der grundlegenden Architektur 175</p> <p>Die wichtigsten Funktionen eines neuronalen Netzes 176</p> <p>Lösen eines einfachen Problems 180</p> <p>Ein Blick ins Innere von neuronalen Netzen 183</p> <p>Auswahl der richtigen Aktivierungsfunktion 183</p> <p>Auswahl eines cleveren Optimierers 185</p> <p>Auswahl einer sinnvollen Lernrate 186</p> <p><b>Kapitel 9 Deep Learning im Detail</b> <b>187</b></p> <p>Daten, Daten, Daten 188</p> <p>Strukturierte und unstrukturierte Daten 188</p> <p>Mooresches Gesetz 189</p> <p>Datenwachstum infolge des mooreschen Gesetzes 191</p> <p>Vorteile durch all die neuen Daten 191</p> <p>Innovationen dank Daten 192</p> <p>Rechtzeitigkeit und Qualität von Daten 192</p> <p>Mehr Tempo bei der Datenverarbeitung 193</p> <p>Nutzung leistungsstarker Hardware 194</p> <p>Weitere Investitionen in Deep Learning 195</p> <p>Neuerungen von Deep Learning 195</p> <p>Immer mehr Schichten 196</p> <p>Bessere Aktivierungsfunktionen 198</p> <p>Regularisierung durch Dropout 199</p> <p>Die Suche nach noch smarteren Lösungen 201</p> <p>Kontinuierliches Lernen (<i>Online Learning</i>) 201</p> <p>Übertragung von Wissen (<i>Transfer Learning</i>) 201</p> <p>Simple Komplettlösungen (<i>End-to-End Learning</i>) 202</p> <p><b>Kapitel 10 Konvolutionsnetze</b> <b>205</b></p> <p>Bilderkennung mit Konvolutionsnetzen 206</p> <p>Grundsätzlicher Aufbau von digitalen Bildern 206</p> <p>Konvolutionen (Faltungen) 208</p> <p>Funktionsprinzip von Konvolutionen 209</p> <p>Vereinfachtes Pooling 212</p> <p>Beschreibung der LeNet-Architektur 214</p> <p>Erkennung von Kanten und Formen in Bildern 219</p> <p>Visualisierung von Konvolutionen 220</p> <p>Einige erfolgreiche Architekturen 222</p> <p>Übertragung von Wissen (<i>Transfer Learning</i>) 223</p> <p><b>Kapitel 11 Rekurrente neuronale Netze</b> <b>227</b></p> <p>Einführung in rekurrente neuronale Netze 227</p> <p>Modellierung von Sequenzen durch Erinnerung 228</p> <p>Erkennung und Übersetzung von Sprache 230</p> <p>Korrekte Beschriftung von Bildern 233</p> <p>LSTM-Zellen (Long Short-Term Memory) 234</p> <p>Unterschiedliche »Gedächtnisse« 235</p> <p>Die LSTM-Architektur 235</p> <p>Verschiedene LSTM-Varianten 238</p> <p>Der Aufmerksamkeitsmechanismus 239</p> <p><b>Teil III: Anwendung von Deep Learning 241</b></p> <p><b>Kapitel 12 Bildklassifikation 243</b></p> <p>Herausforderungen bei der Bildklassifikation 244</p> <p>ImageNet und Alternativen 244</p> <p>Erstellen von Zusatzbildern (<i>Image Augmentation</i>) 246</p> <p>Unterscheidung von Verkehrszeichen 249</p> <p>Vorbereitung der Bilddaten 250</p> <p>Durchführen einer Klassifikation 253</p> <p><b>Kapitel 13 Komplexe Konvolutionsnetze</b> <b>259</b></p> <p>Unterschiedliche Aufgaben beim Erkennen von Objekten im Bild 260</p> <p>Lokalisierung von Objekten 261</p> <p>Klassifikation mehrerer Objekte 262</p> <p>Annotation mehrerer Objekte in Bildern 263</p> <p>Segmentierung von Bildern 264</p> <p>Wahrnehmung von Objekten in ihrer Umgebung 265</p> <p>Funktionsweise von RetinaNet 266</p> <p>Verwendung des Codes von Keras RetinaNet 267</p> <p>Böswillige Angriffe auf DL-Anwendungen 272</p> <p>Heimtückische Pixel 274</p> <p>Hacking mit Stickern und anderen Artefakten 275</p> <p><b>Kapitel 14 Sprachverarbeitung</b> <b>277</b></p> <p>Verarbeitung von Sprache 278</p> <p>Verstehen durch Tokenisierung 279</p> <p>Zusammenführen aller Texte 281</p> <p>Auswendiglernen von wichtigen Sequenzen 284</p> <p>Semantikanalyse durch Worteinbettungen 284</p> <p>KI für Stimmungsanalysen 289</p> <p><b>Kapitel 15 Automatisch erzeugte Musik und visuelle Kunst</b> <b>297</b></p> <p>Computergenerierte Kunst 298</p> <p>Nachahmung eines künstlerischen Stils 298</p> <p>Statistische Verfahren als Grundlage 300</p> <p>Der Unterschied zwischen Kreativität und Deep Learning 302</p> <p>Imitation eines Künstlers 303</p> <p>Neue Werke im Stile eines bestimmten Malers 303</p> <p>Kombination von Stilen zum Erzeugen neuer Werke 305</p> <p>Überzeugende Imitate mit einem GAN 305</p> <p>Musikkomposition mit Deep Learning 306</p> <p><b>Kapitel 16 Generative Adversarial Networks</b> <b>309</b></p> <p>Konkurrierende neuronale Netze 310</p> <p>Wettbewerb als Schlüssel zum Erfolg 310</p> <p>Realistischere Ergebnisse 313</p> <p>Komplexere GANs für anspruchsvollere Aufgaben 320</p> <p>Realistische Imitate von Promigesichtern 321</p> <p>Mehr Bilddetails und Bildübersetzung 321</p> <p><b>Kapitel 17 Verstärkendes Lernen mit Deep Learning 323</b></p> <p>Strategische Spiele mit neuronalen Netzen 324</p> <p>Grundprinzip des verstärkenden Lernens 324</p> <p>Simulierte Spielumgebungen 326</p> <p>Q-learning 330</p> <p>Funktionsweise von AlphaGo 333</p> <p>Eine echte Gewinnerstrategie 335</p> <p>Selbstständiges Lernen in großem Stil 337</p> <p><b>Teil IV: Der Top-Ten-Teil 339</b></p> <p><b>Kapitel 18 Zehn Anwendungsszenarien für Deep Learning</b> <b>341</b></p> <p>Kolorieren von Schwarz-Weiß-Aufnahmen 341</p> <p>Analyse der Körperhaltung in Echtzeit 342</p> <p>Verhaltensanalysen in Echtzeit 343</p> <p>Übersetzung von Sprachen 344</p> <p>Einsparungen mit Solaranlagen 345</p> <p>Computer als Spielgegner 345</p> <p>Erzeugung von Stimmen 346</p> <p>Demografische Analysen 347</p> <p>Kunst basierend auf normalen Fotos 348</p> <p>Vorhersage von Naturkatastrophen 348</p> <p><b>Kapitel 19 Zehn unverzichtbare Tools für Deep Learning</b> <b>351</b></p> <p>Kompilieren von mathematischen Ausdrücken mit Theano 351</p> <p>Stärkung von TensorFlow mit Keras 352</p> <p>Dynamische Berechnung von Graphen mit Chainer 353</p> <p>Einrichtung einer MATLAB-ähnlichen Umgebung mit Torch 354</p> <p>Dynamische Ausführung von Aufgaben mit PyTorch 354</p> <p>Schnellere DL-Forschung dank CUDA 355</p> <p>Geschäftliche Erfolge mit Deeplearning4j 357</p> <p>Data-Mining mit Neural Designer 358</p> <p>Algorithmentraining mit Microsoft Cognitive Toolkit (CNTK) 359</p> <p>Volle GPU-Leistung mit MXNet 359</p> <p>Stichwortverzeichnis 361</p>
John Paul Mueller ist freier Autor und technischer Redakteur. Er hat das Schreiben im Blut. Bis heute hat er 100 Bücher und mehr als 600 Zeitschriftenartikel geschrieben. Seine Themen reichen von Netzwerken bis Haussicherheit und von Datenbankmanagement bis Programmierung.<br> Luca Massaron ist Data Scientist und spezialisiert auf die Aufbereitung und Analyse von Big Data. Er beherrscht die einfachsten und effektivsten Data-Mining- und Maschinelles-Lernen-Techniken und macht so aus Big Data Smart Data. Als Marketing-Consultant und -Forscher hat er seit dem Jahr 2000 mit Data Science zu tun, mit verschiedenen Kunden und in verschiedenen Märkten. Er ist Top-Ten-Kaggle-Data-Scientist.<br>

Diese Produkte könnten Sie auch interessieren:

MDX Solutions
MDX Solutions
von: George Spofford, Sivakumar Harinath, Christopher Webb, Dylan Hai Huang, Francesco Civardi
PDF ebook
53,99 €
Concept Data Analysis
Concept Data Analysis
von: Claudio Carpineto, Giovanni Romano
PDF ebook
107,99 €
Handbook of Virtual Humans
Handbook of Virtual Humans
von: Nadia Magnenat-Thalmann, Daniel Thalmann
PDF ebook
150,99 €