+49 (0) 541 / 40666 200

Sie erreichen uns Montag bis
Freitag von 8 bis 16 Uhr

 

Schreiben Sie uns eine Email oder benutzten eine andere Kontaktmöglichkeit
 Versandkostenfrei in Deutschland
Einkaufskorb
Keine Artikel
in Ihrem
Einkaufskorb

Neuronale Netze programmieren mit Python

Schritt für Schritt eigene neuronale Netze programmieren. Inkl. Lernumgebung und Einstieg in TensorFlow - 400 - 686872

Taschenbuch von Roland Schwaiger und Joachim Steinwendner

90259996
Zum Vergrößern anklicken

nur 29,90 €

(portofrei!, inkl. MwSt.)

Widerruf zu diesem Artikel
  • Details
  • Beschreibung
  • Information
  • Information zum Autor
  • Inhaltsverzeichnis
  • Bilder
Details
Artikel-Nr.:
90259996
Im Sortiment seit:
01.05.2019
Erscheinungsdatum:
05/2019
Medium:
Taschenbuch
Einband:
Kartoniert / Broschiert
Autor:
Schwaiger, Roland
Steinwendner, Joachim
Verlag:
Rheinwerk Verlag GmbH
Rheinwerk
Sprache:
Deutsch
Rubrik:
Programmiersprachen
Seiten:
447
Reihe:
Rheinwerk Computing
Gewicht:
820 gr
Beschreibung
Geniale Ideen einfach erklärt

Schneller Einstieg mit allen Python- und Mathegrundlagen
Lernalgorithmen, Aktivierungsfunktionen, Backpropagation
Inkl. Online-Lernumgebung und Einstieg in TensorFlow

Neuronale Netze stehen im Mittelpunkt, wenn es um Künstliche Intelligenz und Machine Learning geht . Sie revolutionieren derzeit die verschiedensten Anwendungsgebiete vom Strategiespiel bis zur Bild- und Spracherkennung. Um sie gewinnbringend einzusetzen oder um zu verstehen, worauf ihr Erfolg beruht, lernen Sie sie gründlich kennen: Programmieren Sie verschiedene Netztypen selbst nach! Und zwar in Python, der Hauptsprache der KI-Welt. Sie werden sich dabei mit Mathematik und Programmierung befassen, brauchen aber keine konkreten Vorkenntnisse.

Aus dem Inhalt:


Die Grundidee hinter Neuronalen Netzen
Ein einfaches Neuronales Netz aufbauen
Neuronale Netze trainieren
Überwachtes und unüberwachtes Lernen
Einführung in TensorFlow
Kompaktkurs Python
Wichtige mathematische Grundlagen
Reinforcement Learning
Verschiedene Netzarten und ihre Anwendungsbereiche
Back Propagation
Deep Learning
Werkzeuge für Data Scientists
Information
Inkl. Online-Lernumgebung und Einstieg in TensorFlow
Information zum Autor
Dr. Roland Schwaiger studierte an der Bowling Green State University, OH (USA) Computer Science und an der Universität Salzburg (Österreich) Angewandte Informatik und Mathematik und promovierte dort im Bereich Mathematik. Nach mehrjähriger Assistententätigkeit an der Universität Salzburg kam er 1996 als Softwareentwickler zur SAP AG und entfaltete dort seine Fähigkeiten für drei Jahre im Bereich Human Resources in einem anregenden und inspirierenden Umfeld.
Seit 1999 ist er als freiberuflicher Trainer, Lektor, Berater und Entwickler tätig (Zertifizierter Development Consultant SAP NetWeaver 2004 - Application Development Focus ABAP). Er setzt seine akademische Vorbildung und das bei SAP erworbene Wissen, abgerundet durch einen MBA in Prozess- und Projektmanagement, für die Softwareentwicklung in konkreten Entwicklungsprojekten und SAP-Schulungen ein. Die dort wiederum erworbenen Erkenntnisse trägt er zurück in die akademische Welt und verknüpft so Theorie und Praxis.
Inhaltsverzeichnis
Materialien zum Buch ... 12

Vorwort ... 13

1. Einleitung ... 17

1.1 ... Wozu neuronale Netze? ... 17

1.2 ... Über dieses Buch ... 18

1.3 ... Der Inhalt kompakt ... 19

1.4 ... Ist die Biene eine Königin? ... 23

1.5 ... Ein künstliches neuronales Netz für den Bienenstaat ... 24

1.6 ... Von der Biologie zum künstlichen Neuron ... 28

1.7 ... Einordnung und der Rest ... 33

1.8 ... Zusammenfassung ... 40

1.9 ... Referenzen ... 41

Teil I Up and running ... 43

2. Das minimale Starterkit für die Entwicklung von neuronalen Netzen mit Python ... 45

2.1 ... Die technische Entwicklungsumgebung ... 45

2.2 ... Zusammenfassung ... 62

3. Ein einfaches neuronales Netz ... 63

3.1 ... Vorgeschichte ... 63

3.2 ... Her mit dem neuronalen Netz! ... 63

3.3 ... Neuron-Zoom-in ... 67

3.4 ... Stufenfunktion ... 71

3.5 ... Perceptron ... 73

3.6 ... Punkte im Raum - Vektorrepräsentation ... 75

3.7 ... Horizontal und vertikal - Spalten- und Zeilenschreibweise ... 81

3.8 ... Die gewichtete Summe ... 84

3.9 ... Schritt für Schritt - Stufenfunktionen ... 84

3.10 ... Die gewichtete Summe reloaded ... 85

3.11 ... Alles zusammen ... 86

3.12 ... Aufgabe - Roboterschutz ... 88

3.13 ... Zusammenfassung ... 91

3.14 ... Referenzen ... 91

4. Lernen im einfachen Netz ... 93

4.1 ... Vorgeschichte: Man lässt planen ... 93

4.2 ... Lernen im Python-Code ... 95

4.3 ... Perceptron-Lernen ... 95

4.4 ... Trenngerade für einen Lernschritt ... 99

4.5 ... Perceptron-Lernalgorithmus ... 100

4.6 ... Die Trenngeraden bzw. Hyperplanes oder auch Hyperebenen für das Beispiel ... 105

4.7 ... scikit-learn-kompatibler Estimator ... 109

4.8 ... scikit-learn-Perceptron-Estimator ... 116

4.9 ... Adaline ... 118

4.10 ... Zusammenfassung ... 126

4.11 ... Referenzen ... 128

5. Mehrschichtige neuronale Netze ... 129

5.1 ... Ein echtes Problem ... 129

5.2 ... XOR kann man lösen ... 131

5.3 ... Vorbereitungen für den Start ... 135

5.4 ... Der Plan für die Umsetzung ... 137

5.5 ... Das Setup (»class«) ... 138

5.6 ... Die Initialisierung (»__init__«) ... 140

5.7 ... Was für zwischendurch (»print«) ... 142

5.8 ... Die Auswertung (»predict«) ... 143

5.9 ... Die Verwendung ... 145

5.10 ... Zusammenfassung ... 147

6. Lernen im mehrschichtigen Netz ... 149

6.1 ... Wie misst man einen Fehler? ... 149

6.2 ... Gradientenabstieg an einem Beispiel ... 151

6.3 ... Ein Netz aus sigmoiden Neuronen ... 160

6.4 ... Der coole Algorithmus mit Vorwärts-Delta und Rückwärts-Multiplikation ... 162

6.5 ... Ein »fit«-Durchlauf ... 175

6.6 ... Zusammenfassung ... 184

6.7 ... Referenz ... 184

7. Convolutional Neural Networks ... 185

7.1 ... Aufbau eines CNN ... 187

7.2 ... Der Detektionsteil ... 188

7.3 ... Der Identifikationsteil ... 195

7.4 ... Trainieren von Convolutional Neural Networks ... 197

7.5 ... Zusammenfassung ... 206

7.6 ... Referenzen ... 206

8. Programmierung von Convolutional Neural Networks mit TensorFlow ... 207

8.1 ... Einführung in TensorFlow ... 207

8.2 ... Convolutional Networks zur Handschriftenerkennung ... 215

8.3 ... Transfer Learning mit Convolutional Neural Networks ... 228

8.4 ... Zusammenfassung ... 237

8.5 ... Referenzen ... 237

Teil II Deep Dive ... 239

9. Vom Hirn zum Netz ... 241

9.1 ... Ihr Gehirn in Aktion ... 241

9.2 ... Das Nervensystem ... 242

9.3 ... Das Gehirn ... 243

9.4 ... Neuronen und Gliazellen ... 245

9.5 ... Eine Übertragung im Detail ... 247

9.6 ... Darstellung von Zellen und Netzen ... 250

9.7 ... Zusammenfassung ... 252

9.8 ... Referenzen ... 253

10. Die Evolution der neuronalen Netze ... 255

10.1 ... 1940er ... 255

10.2 ... 1950er ... 258

10.3 ... 1960er ... 260

10.4 ... 1970er ... 260

10.5 ... 1980er ... 261

10.6 ... 1990er ... 274

10.7 ... 2000er ... 275

10.8 ... 2010er ... 275

10.9 ... Zusammenfassung ... 277

10.10 ... Referenzen ... 278

11. Der Machine-Learning-Prozess ... 279

11.1 ... Das CRISP-DM-Modell ... 279

11.2 ... Feature Engineering ... 283

11.3 ... Zusammenfassung ... 312

11.4 ... Referenzen ... 312

12. Lernverfahren ... 313

12.1 ... Lernstrategien ... 313

12.2 ... Werkzeuge ... 350

12.3 ... Zusammenfassung ... 355

12.4 ... Referenzen ... 355

13. Anwendungsbereiche und Praxisbeispiele ... 357

13.1 ... Warmup ... 357

13.2 ... Bildklassifikation ... 360

13.3 ... Erträumte Bilder ... 381

13.4 ... Zusammenfassung ... 391

13.5 ... Referenzen ... 392

A. Python kompakt ... 393

B. Mathematik kompakt ... 421

Index ... 435
Bilder