Book description
Python-Programmierer finden in diesem Kochbuch nahezu 200 wertvolle und jeweils in sich abgeschlossene Anleitungen zu Aufgabenstellungen aus dem Bereich des Machine Learning, wie sie für die tägliche Arbeit typisch sind – von der Vorverarbeitung der Daten bis zum Deep Learning.Entwickler, die mit Python und Python-Bibliotheken einschließlich Pandas und Scikit-Learn vertraut sind, werden spezifische Probleme wie beispielsweise Daten laden, Text und numerische Daten behandeln, Modelle auswählen, die Dimensionalität reduzieren und viele weitere Aufgabenstellungen erfolgreich bewältigen.Jedes Rezept enthält Code, den Sie kopieren und zum Testen in eine kleine Beispieldatenmenge einfügen und dann anpassen können, um Ihre eigenen Anwendungen zu konstruieren. Über das Rezept hinaus wird die Lösung diskutiert und werden wichtige Zusammenhänge hergestellt. Das Kochbuch bleibt nicht bei Theorie und bloßen Konzepten stehen, sondern vermittelt wertvolles Praxiswissen anhand von funktionsfähigen Anwendungen des maschinellen Lernens.
Table of contents
- Cover
- Titel
- Impressum
- Inhalt
- Einleitung
-
1 Vektoren, Matrizen und Arrays
- 1.0 Einführung
- 1.1 Einen Vektor erzeugen
- 1.2 Eine Matrix erstellen
- 1.3 Eine dünn besetzte Matrix erzeugen
- 1.4 Elemente auswählen
- 1.5 Eine Matrix beschreiben
- 1.6 Operationen auf Elemente anwenden
- 1.7 Die Größt- und Kleinstwerte suchen
- 1.8 Mittelwert, Varianz und Standardabweichung berechnen
- 1.9 Die Gestalt von Arrays ändern
- 1.10 Einen Vektor oder eine Matrix transponieren
- 1.11 Eine Matrix verflachen
- 1.12 Den Rang einer Matrix ermitteln
- 1.13 Die Determinante berechnen
- 1.14 Die Diagonale einer Matrix ermitteln
- 1.15 Die Spur einer Matrix berechnen
- 1.16 Eigenwerte und Eigenvektoren suchen
- 1.17 Punktprodukte berechnen
- 1.18 Matrizen addieren und subtrahieren
- 1.19 Matrizen multiplizieren
- 1.20 Eine Matrix invertieren
- 1.21 Zufallswerte erzeugen
- 2 Laden von Daten
-
3 Datenaufbereitung
- 3.0 Einführung
- 3.1 Einen Dataframe erstellen
- 3.2 Die Daten beschreiben
- 3.3 In DataFrames navigieren
- 3.4 Zeilen abhängig von Bedingungen auswählen
- 3.5 Werte ersetzen
- 3.6 Spalten umbenennen
- 3.7 Minimum, Maximum, Summe, Mittelwert und Anzahl ermitteln
- 3.8 Eindeutige Werte ermitteln
- 3.9 Fehlende Werte behandeln
- 3.10 Eine Spalte löschen
- 3.11 Eine Zeile löschen
- 3.12 Doppelte Zeilen löschen
- 3.13 Zeilen nach Werten gruppieren
- 3.14 Zeilen nach Zeit gruppieren
- 3.15 Eine Spalte in einer Schleife durchlaufen
- 3.16 Eine Funktion auf alle Elemente in einer Spalte anwenden
- 3.17 Eine Funktion auf Gruppen anwenden
- 3.18 DataFrames verketten
- 3.19 DataFrames zusammenführen
-
4 Numerische Daten verarbeiten
- 4.0 Einführung
- 4.1 Ein Merkmal neu skalieren
- 4.2 Ein Merkmal standardisieren
- 4.3 Beobachtungen normalisieren
- 4.4 Polynom- und Interaktionsmerkmale erzeugen
- 4.5 Merkmale transformieren
- 4.6 Ausreißer erkennen
- 4.7 Mit Ausreißern umgehen
- 4.8 Merkmale diskretisieren
- 4.9 Beobachtungen durch Clustern gruppieren
- 4.10 Beobachtungen mit fehlenden Werten löschen
- 4.11 Fehlende Werte imputieren
- 5 Kategorische Daten behandeln
- 6 Text verarbeiten
-
7 Datum und Uhrzeit
- 7.0 Einführung
- 7.1 Strings in Datumswerte konvertieren
- 7.2 Umgang mit Zeitzonen
- 7.3 Datum und Uhrzeit auswählen
- 7.4 Datumsdaten in mehrere Merkmale aufgliedern
- 7.5 Die Differenz zwischen Datumswerten bilden
- 7.6 Wochentage codieren
- 7.7 Ein verzögertes Merkmal erstellen
- 7.8 Gleitende Zeitfenster verwenden
- 7.9 Fehlende Daten in Zeitreihen behandeln
-
8 Bilder verarbeiten
- 8.0 Einführung
- 8.1 Bilder laden
- 8.2 Bilder speichern
- 8.3 Bilder in der Größe ändern
- 8.4 Bilder beschneiden
- 8.5 Bilder weichzeichnen
- 8.6 Bilder scharfzeichnen
- 8.7 Kontrast erhöhen
- 8.8 Farben isolieren
- 8.9 Binärbilder erzeugen
- 8.10 Hintergründe entfernen
- 8.11 Kantendetektion
- 8.12 Eckenerkennung
- 8.13 Merkmale für maschinelles Lernen erzeugen
- 8.14 Die mittlere Farbe als Merkmal codieren
- 8.15 Farbhistogramme als Merkmale codieren
-
9 Verringerung der Dimensionalität durch Merkmalsextraktion
- 9.0 Einführung
- 9.1 Merkmale mithilfe von Hauptkomponenten reduzieren
- 9.2 Merkmale reduzieren, wenn Daten nicht linear separierbar sind
- 9.3 Merkmale durch Maximierung der Klassenseparierbarkeit reduzieren
- 9.4 Merkmale durch Matrixfaktorisierung reduzieren
- 9.5 Merkmale auf schwach besetzten Daten reduzieren
- 10 Dimensionalität durch Merkmalsauswahl reduzieren
-
11 Modellbewertung
- 11.0 Einführung
- 11.1 Kreuzvalidierungsmodelle
- 11.2 Ein Baseline-Regressionsmodell erstellen
- 11.3 Ein Baseline-Klassifizierungsmodell erstellen
- 11.4 Vorhersagen binärer Klassifikatoren bewerten
- 11.5 Schwellenwerte von binären Klassifikatoren bewerten
- 11.6 Mehrklassige Klassifikatorvorhersagen bewerten
- 11.7 Die Performance eines Klassifikators visualisieren
- 11.8 Regressionsmodelle bewerten
- 11.9 Clustermodelle bewerten
- 11.10 Eine benutzerdefinierte Bewertungsmetrik erstellen
- 11.11 Die Wirkung der Trainingsmengengröße visualisieren
- 11.12 Einen Textbericht der Bewertungsmetriken erstellen
- 11.13 Die Wirkung von Hyperparameter-Werten visualisieren
-
12 Modellauswahl
- 12.0 Einführung
- 12.1 Beste Modelle mittels erschöpfender Suche auswählen
- 12.2 Beste Modelle mittels Zufallssuche auswählen
- 12.3 Beste Modelle von mehreren Lernalgorithmen auswählen
- 12.4 Beste Modelle bei Vorverarbeitung auswählen
- 12.5 Die Modellauswahl durch Parallelisierung beschleunigen
- 12.6 Die Modellauswahl mit algorithmusspezifischen Methoden beschleunigen
- 12.7 Performance nach der Modellauswahl bewerten
- 13 Lineare Regression
-
14 Bäume und Wälder
- 14.0 Einführung
- 14.1 Einen Klassifikator mittels Entscheidungsbaum trainieren
- 14.2 Einen Entscheidungsbaumregressor trainieren
- 14.3 Ein Entscheidungsbaummodell visualisieren
- 14.4 Einen Random-Forest-Klassifikator trainieren
- 14.5 Einen Random-Forest-Regressor trainieren
- 14.6 Wichtige Merkmale in Random Forests identifizieren
- 14.7 Wichtige Merkmale in Random Forests auswählen
- 14.8 Unausgewogene Klassen behandeln
- 14.9 Die Baumgröße steuern
- 14.10 Performance durch Boosting verbessern
- 14.11 Random Forests mit Out-of-Bag-Fehlern bewerten
- 15 K-nächste Nachbarn
- 16 Logistische Regression
- 17 Support Vector Machines
- 18 Naive Bayes-Klassifikatoren
- 19 Clustering
-
20 Neuronale Netze
- 20.0 Einführung
- 20.1 Vorverarbeitung der Daten für neuronale Netze
- 20.2 Ein neuronales Netz entwerfen
- 20.3 Einen binären Klassifikator trainieren
- 20.4 Einen Klassifikator für mehrere Klassen trainieren
- 20.5 Einen Regressor trainieren
- 20.6 Vorhersagen treffen
- 20.7 Den Trainingsverlauf visualisieren
- 20.8 Überanpassung durch Regularisierung der Gewichte vermindern
- 20.9 Überanpassung durch frühes Stoppen verringern
- 20.10 Überanpassung durch Dropout verringern
- 20.11 Den Fortschritt beim Training eines Modells speichern
- 20.12 Neuronale Netze mit k-facher Kreuzvalidierung
- 20.13 Neuronale Netze optimieren
- 20.14 Neuronale Netze visualisieren
- 20.15 Bilder klassifizieren
- 20.16 Höhere Performance durch Bildverbesserung
- 20.17 Text klassifizieren
- 21 Trainierte Modelle speichern und laden
- Fußnoten
- Index
- Über den Autor
- Kolophon
Product information
- Title: Machine Learning Kochbuch
- Author(s):
- Release date: March 2019
- Publisher(s): dpunkt
- ISBN: 9783960090908
You might also like
book
Merkmalskonstruktion für Machine Learning
Das Feature Engineering – auch Merkmalskonstruktion genannt – ist ein entscheidender Arbeitsschritt bei der Datenaufbereitung für …
book
Deep Learning Kochbuch
Lassen Sie sich von Deep Learning nicht abschrecken! Dank Frameworks wie Keras und TensorFlow ist der …
book
Machine Learning – kurz & gut, 2nd Edition
Machine Learning erreicht heute beinahe alle Bereiche der Technik und der Gesellschaft. Dieses Buch bietet Interessierten, …
book
Machine Learning – Die Referenz
Das praktische Nachschlagewerk zum Machine Learning mit strukturierten Daten