Book description
- Datenanalyse mit ausgereiften statistischen Modellen des Machine Learnings
- Anwendung der wichtigsten Algorithmen und Python-Bibliotheken wie NumPy, SciPy, Scikit-learn, Keras, TensorFlow 2, Pandas und Matplotlib
- Best Practices zur Optimierung Ihrer Machine-Learning-Algorithmen
Mit diesem Buch erhalten Sie eine umfassende Einführung in die Grundlagen und den effektiven Einsatz von Machine-Learning- und Deep-Learning-Algorithmen und wenden diese anhand zahlreicher Beispiele praktisch an. Dafür setzen Sie ein breites Spektrum leistungsfähiger Python-Bibliotheken ein, insbesondere Keras, TensorFlow 2 und Scikit-learn. Auch die für die praktische Anwendung unverzichtbaren mathematischen Konzepte werden verständlich und anhand zahlreicher Diagramme anschaulich erläutert.
Die dritte Auflage dieses Buchs wurde für TensorFlow 2 komplett aktualisiert und berücksichtigt die jüngsten Entwicklungen und Technologien, die für Machine Learning, Neuronale Netze und Deep Learning wichtig sind. Dazu zählen insbesondere die neuen Features der Keras-API, das Synthetisieren neuer Daten mit Generative Adversarial Networks (GANs) sowie die Entscheidungsfindung per Reinforcement Learning.
Ein sicherer Umgang mit Python wird vorausgesetzt.
Aus dem Inhalt:
- Trainieren von Lernalgorithmen und Implementierung in Python
- Gängige Klassifikationsalgorithmen wie Support Vector Machines (SVM), Entscheidungsbäume und Random Forest
- Natural Language Processing zur Klassifizierung von Filmbewertungen
- Clusteranalyse zum Auffinden verborgener Muster und Strukturen in Ihren Daten
- Deep-Learning-Verfahren für die Bilderkennung
- Datenkomprimierung durch Dimensionsreduktion
- Training Neuronaler Netze und GANs mit TensorFlow 2
- Kombination verschiedener Modelle für das Ensemble Learning
- Einbettung von Machine-Learning-Modellen in Webanwendungen
- Stimmungsanalyse in Social Networks
- Modellierung sequenzieller Daten durch rekurrente Neuronale Netze
- Reinforcement Learning und Implementierung von Q-Learning-Algorithmen
Table of contents
- Impressum
- Über die Autoren
- Über die Korrektoren
- Über den Fachkorrektor der deutschen Ausgabe
- Einleitung
- Kapitel 1: Wie Computer aus Daten lernen können
- Kapitel 2: Lernalgorithmen für die Klassifikation trainieren
-
Kapitel 3: Machine-Learning-Klassifikatoren mit scikit-learn verwenden
- 3.1 Auswahl eines Klassifikationsalgorithmus
- 3.2 Erste Schritte mit scikit-learn: Trainieren eines Perzeptrons
-
3.3 Klassenwahrscheinlichkeiten durch logistische Regression modellieren
- 3.3.1 Logistische Regression und bedingte Wahrscheinlichkeiten
- 3.3.2 Gewichte der logistischen Straffunktion ermitteln
- 3.3.3 Konvertieren einer Adaline-Implementierung in einen Algorithmus für eine logistische Regression
- 3.3.4 Trainieren eines logistischen Regressionsmodells mit scikit-learn
- 3.3.5 Überanpassung durch Regularisierung verhindern
- 3.4 Maximum-Margin-Klassifikation mit Support Vector Machines
- 3.5 Nichtlineare Aufgaben mit einer Kernel-SVM lösen
- 3.6 Lernen mit Entscheidungsbäumen
- 3.7 k-Nearest-Neighbors: Ein Lazy-Learning-Algorithmus
- 3.8 Zusammenfassung
- Kapitel 4: Gut geeignete Trainingsdatenmengen: Datenvorverarbeitung
-
Kapitel 5: Datenkomprimierung durch Dimensionsreduktion
- 5.1 Unüberwachte Dimensionsreduktion durch Hauptkomponentenanalyse
-
5.2 Überwachte Datenkomprimierung durch lineare Diskriminanzanalyse
- 5.2.1 Hauptkomponentenanalyse kontra lineare Diskriminanzanalyse
- 5.2.2 Die interne Funktionsweise der linearen Diskriminanzanalyse
- 5.2.3 Berechnung der Streumatrizen
- 5.2.4 Auswahl linearer Diskriminanten für den neuen Merkmalsunterraum
- 5.2.5 Projektion in den neuen Merkmalsraum
- 5.2.6 LDA mit scikit-learn
- 5.3 Kernel-Hauptkomponentenanalyse für nichtlineare Zuordnungen verwenden
- 5.4 Zusammenfassung
-
Kapitel 6: Bewährte Verfahren zur Modellbewertung und Hyperparameter-Optimierung
- 6.1 Arbeitsabläufe mit Pipelines optimieren
- 6.2 Beurteilung des Modells durch k-fache Kreuzvalidierung
- 6.3 Algorithmen mit Lern- und Validierungskurven debuggen
- 6.4 Feinabstimmung eines Lernmodells durch Grid Search
- 6.5 Verschiedene Kriterien zur Leistungsbewertung
- 6.6 Handhabung unausgewogener Klassenverteilung
- 6.7 Zusammenfassung
-
Kapitel 7: Kombination verschiedener Modelle für das Ensemble Learning
- 7.1 Ensemble Learning
- 7.2 Klassifikatoren durch Mehrheitsentscheidung kombinieren
- 7.3 Bewertung und Abstimmung des Klassifikator-Ensembles
- 7.4 Bagging: Klassifikator-Ensembles anhand von Bootstrap-Stichproben entwickeln
- 7.5 Schwache Klassifikatoren durch adaptives Boosting verbessern
- 7.6 Zusammenfassung
- Kapitel 8: Machine Learning zur Analyse von Stimmungslagen nutzen
-
Kapitel 9: Einbettung eines Machine-Learning-Modells in eine Webanwendung
- 9.1 Serialisierung angepasster Schätzer mit scikit-learn
- 9.2 Einrichtung einer SQLite-Datenbank zum Speichern von Daten
- 9.3 Entwicklung einer Webanwendung mit Flask
- 9.4 Der Filmbewertungsklassifikator als Webanwendung
- 9.5 Einrichtung der Webanwendung auf einem öffentlich zugänglichen Webserver
- 9.6 Zusammenfassung
-
Kapitel 10: Vorhersage stetiger Zielvariablen durch Regressionsanalyse
- 10.1 Lineare Regression
- 10.2 Die Boston-Housing-Datensammlung
- 10.3 Implementierung eines linearen Regressionsmodells mit der Methode der kleinsten Quadrate
- 10.4 Anpassung eines robusten Regressionsmodells mit dem RANSAC-Algorithmus
- 10.5 Bewertung der Leistung linearer Regressionsmodelle
- 10.6 Regularisierungsverfahren für die Regression einsetzen
- 10.7 Polynomiale Regression: Umwandeln einer linearen Regression in eine Kurve
- 10.8 Handhabung nichtlinearer Beziehungen mit Random Forests
- 10.9 Zusammenfassung
- Kapitel 11: Verwendung von Daten ohne Label: Clusteranalyse
- Kapitel 12: Implementierung eines künstlichen neuronalen Netzes
-
Kapitel 13: Parallelisierung des Trainings neuronaler Netze mit TensorFlow
- 13.1 TensorFlow und Trainingsleistung
- 13.2 Erste Schritte mit TensorFlow
-
13.3 Eingabe-Pipelines mit tf.data erstellen – die Dataset-API von TensorFlow
- 13.3.1 Ein TensorFlow-Dataset anhand vorhandener Tensoren erstellen
- 13.3.2 Zwei Tensoren zu einer Datenmenge vereinen
- 13.3.3 Durchmischen, Batch erstellen und wiederholen
- 13.3.4 Erstellen einer Datenmenge anhand lokal gespeicherter Dateien
- 13.3.5 Zugriff auf die Datenmengen der tensorflow_datasets-Bibliothek
-
13.4 Entwicklung eines NN-Modells mit TensorFlow
- 13.4.1 Die Keras-API (tf.keras) von TensorFlow
- 13.4.2 Entwicklung eines linearen Regressionsmodells
- 13.4.3 Trainieren des Modells mit den Methoden .compile() und .fit()
- 13.4.4 Entwicklung eines mehrschichtigen Perzeptrons zur Klassifikation der Iris-Datensammlung
- 13.4.5 Bewertung des trainierten Modells mit der Testdatenmenge
- 13.4.6 Das trainierte Modell speichern und einlesen
- 13.5 Auswahl der Aktivierungsfunktionen mehrschichtiger neuronaler Netze
- 13.6 Zusammenfassung
-
Kapitel 14: Die Funktionsweise von TensorFlow im Detail
- 14.1 Grundlegende Merkmale von TensorFlow
-
14.2 TensorFlows Berechnungsgraphen: Migration nach TensorFlow v2
- 14.2.1 Funktionsweise von Berechnungsgraphen
- 14.2.2 Erstellen eines Graphen in TensorFlow v1.x
- 14.2.3 Migration eines Graphen nach TensorFlow v2
- 14.2.4 Eingabedaten einlesen mit TensorFlow v1.x
- 14.2.5 Eingabedaten einlesen mit TensorFlow v2
- 14.2.6 Beschleunigung von Berechnungen mit Funktionsdekoratoren
- 14.3 TensorFlows Variablenobjekte zum Speichern und Aktualisieren von Modellparametern
- 14.4 Gradientenberechnung durch automatisches Differenzieren und GradientTape
- 14.5 Vereinfachung der Implementierung gebräuchlicher Architekturen mit der Keras-API
- 14.6 TensorFlows Schätzer
- 14.7 Zusammenfassung
- Kapitel 15: Bildklassifikation mit Deep Convolutional Neural Networks
- Kapitel 16: Modellierung sequenzieller Daten durch rekurrente neuronale Netze
-
Kapitel 17: Synthetisieren neuer Daten mit Generative Adversarial Networks
- 17.1 Einführung in GANs
- 17.2 Ein GAN von Grund auf implementieren
-
17.3 Verbesserung der Qualität synthetisierter Bilder durch Convolutional GAN und Wasserstein-GAN
- 17.3.1 Transponierte Faltung
- 17.3.2 Batchnormierung
- 17.3.3 Implementierung des Generators und des Diskriminators
- 17.3.4 Maße für den Unterschied zwischen zwei Verteilungen
- 17.3.5 Verwendung der EM-Distanz in der Praxis
- 17.3.6 Strafterm
- 17.3.7 Implementierung von WGAN-GP zum Trainieren des DCGAN-Modells
- 17.3.8 Zusammenbrechen des Verfahrens
- 17.4 Weitere GAN-Anwendungen
- 17.5 Zusammenfassung
- Kapitel 18: Entscheidungsfindung in komplexen Umgebungen per Reinforcement Learning
Product information
- Title: Machine Learning mit Python und Keras, TensorFlow 2 und Scikit-Learn
- Author(s):
- Release date: March 2021
- Publisher(s): mitp Verlag
- ISBN: None
You might also like
book
Designing Data-Intensive Applications
Data is at the center of many challenges in system design today. Difficult issues need to …
book
Mythical Man-Month, The: Essays on Software Engineering, Anniversary Edition, 2nd Edition
Few books on software project management have been as influential and timeless as The Mythical Man-Month. …
book
Effective Java, 3rd Edition
Since this Jolt-award winning classic was last updated in 2008, the Java programming environment has changed …
book
Modern Software Engineering: Doing What Works to Build Better Software Faster
Improve Your Creativity, Effectiveness, and Ultimately, Your Code In Modern Software Engineering, continuous delivery pioneer David …