+49 (0) 541 / 40666 200

Sie erreichen uns Montag bis
Freitag von 8 bis 16 Uhr

 

Schreiben Sie uns eine Email oder benutzten eine andere Kontaktmöglichkeit
 Versandkostenfrei in Deutschland
Einkaufskorb
Keine Artikel
in Ihrem
Einkaufskorb

Neuronale Netze und Deep Learning kapieren

Der einfache Praxiseinstieg mit Beispielen in Python - 250 - 13603230

Taschenbuch von Andrew W. Trask

91584012
Zum Vergrößern anklicken

nur 29,99 €

(portofrei!, inkl. MwSt.)

Widerruf zu diesem Artikel
  • Details
  • Beschreibung
  • Information zum Autor
  • Bilder
Details
Artikel-Nr.:
91584012
Im Sortiment seit:
04.12.2019
Erscheinungsdatum:
12/2019
Medium:
Taschenbuch
Einband:
Kartoniert / Broschiert
Autor:
Trask, Andrew W.
Verlag:
MITP Verlags GmbH
MITP
Sprache:
Deutsch
Rubrik:
Datenkommunikation
Netze, Mailboxen
Seiten:
354
Reihe:
mitp Professional
Gewicht:
610 gr
Beschreibung
Von den Grundlagen Neuronaler Netze über Machine Learning bis hin zu Deep-Learning-Algorithmen
Anschauliche Diagramme, Anwendungsbeispiele in Python und der Einsatz von NumPy
Keine Vorkenntnisse in Machine Learning oder höherer Mathematik erforderlich

Deep Learning muss nicht kompliziert sein. Mit diesem Buch lernst du anhand vieler Beispiele alle Grundlagen, die du brauchst, um Deep-Learning-Algorithmen zu verstehen und anzuwenden. Dafür brauchst du nichts weiter als Schulmathematik und Kenntnisse der Programmiersprache Python. Alle Codebeispiele werden ausführlich erläutert und mathematische Hintergründe anhand von Analogien veranschaulicht.
Der Autor erklärt leicht verständlich, wie Neuronale Netze lernen und wie sie mit Machine-Learning-Verfahren trainiert werden können. Du erfährst, wie du dein erstes Neuronales Netz erstellst und wie es mit Deep-Learning-Algorithmen Bilder erkennen sowie natürliche Sprache verarbeiten und modellieren kann. Hierbei kommen Netze mit mehreren Schichten wie CNNs und RNNs zum Einsatz.
Fokus des Buches ist es, Neuronale Netze zu trainieren, ohne auf vorgefertigte Python-Frameworks zurückzugreifen. So verstehst du Deep Learning von Grund auf und kannst in Zukunft auch komplexe Frameworks erfolgreich für deine Projekte einsetzen.

Aus dem Inhalt:

Parametrische und nichtparametrische Modelle
Überwachtes und unüberwachtes Lernen
Vorhersagen mit mehreren Ein- und Ausgaben
Fehler messen und verringern
Hot und Cold Learning
Batch- und stochastischer Gradientenabstieg
Überanpassung vermeiden
Generalisierung
Dropout-Verfahren
Backpropagation und Forward Propagation
Bilderkennung
Verarbeitung natürlicher Sprache (NLP)
Sprachmodellierung
Aktivierungsfunktionen

Sigmoid-Funktion
Tangens hyperbolicus
Softmax


Convolutional Neural Networks (CNNs)
Recurrent Neural Networks (RNNs)
Long Short-Term Memory (LSTM)
Deep-Learning-Framework erstellen
Information zum Autor
Andrew W. Trask ist Doktorand an der Oxford University und als Research Scientist für DeepMind tätig. Zuvor war er Researcher und Analytics Product Manager bei Digital Reasoning, wo er u.a. das größte künstliche Neuronale Netz der Welt trainierte.
Bilder