Book description
Cet ouvrage, conçu pour tous ceux qui souhaitent s'initier au deep learning (apprentissage profond), est la traduction de la deuxième partie du best-seller Hands-On Machine Learning with Scikit-Learn, Keras and TensorFlow (2e édition). Le deep learning est récent et il évolue vite. Ce livre en présente les principales techniques : les réseaux de neurones profonds, capables de modéliser toutes sortes de données, les réseaux de convolution, capables de classifier des images, les segmenter et découvrir les objets ou personnes qui s'y trouvent, les réseaux récurrents, capables de gérer des séquences telles que des phrases, des séries temporelles, ou encore des vidéos, les autoencodeurs qui peuvent découvrir toutes sortes de structures dans des données, de façon non supervisée, et enfin le reinforcement learning (apprentissage par renforcement) qui permet de découvrir automatiquement les meilleures actions pour effectuer une tâche (par exemple un robot qui apprend à marcher). Ce livre présente TensorFlow, le framework de deep learning créé par Google. Il est accompagné de notebooks Jupyter qui contiennent tous les exemples de code du livre, afin que le lecteur puisse facilement tester et faire tourner les programmes. Il complète un premier livre du même auteur intitulé Machine Learning avec Scikit-Learn.
Table of contents
- Titre
- Copyright
- Table des matières
- Avant-propos (1/2)
- Avant-propos (2/2)
-
Chapitre 1. - Les fondamentaux du Machine Learning
- 1.1 Installer le projet handson-ml2
- 1.2 Installer Tensorflow et Jupyter
- 1.3 Qu'est-ce que le Machine Learning ?
- 1.4 Comment le système apprend-il ?
- 1.5 Régression linéaire
- 1.6 Descente de gradient (1/2)
- 1.6 Descente de gradient (2/2)
- 1.7 Régression polynomiale
- 1.8 Courbes d'apprentissage
- 1.9 Modèles linéaires régularisés (1/2)
- 1.9 Modèles linéaires régularisés (2/2)
- 1.10 Régression logistique (1/2)
- 1.10 Régression logistique (2/2)
- 1.11 Exercices
-
Chapitre 2. - Introduction aux réseaux de neurones artificiels avec Keras
- 2.1 Du biologique à l'artificiel (1/3)
- 2.1 Du biologique à l'artificiel (2/3)
- 2.1 Du biologique à l'artificiel (3/3)
- 2.2 Implémenter des MPC avec Keras (1/5)
- 2.2 Implémenter des MPC avec Keras (2/5)
- 2.2 Implémenter des MPC avec Keras (3/5)
- 2.2 Implémenter des MPC avec Keras (4/5)
- 2.2 Implémenter des MPC avec Keras (5/5)
- 2.3 Régler précisément les hyperparamètres d'un réseau de neurones (1/2)
- 2.3 Régler précisément les hyperparamètres d'un réseau de neurones (2/2)
- 2.4 Exercices
-
Chapitre 3. - Entraînement de réseaux de neurones profonds
- 3.1 Problèmes de disparition et d'explosion des gradients (1/3)
- 3.1 Problèmes de disparition et d'explosion des gradients (2/3)
- 3.1 Problèmes de disparition et d'explosion des gradients (3/3)
- 3.2 Réutiliser des couches préentraînées (1/2)
- 3.2 Réutiliser des couches préentraînées (2/2)
- 3.3 Optimiseurs plus rapides (1/3)
- 3.3 Optimiseurs plus rapides (2/3)
- 3.3 Optimiseurs plus rapides (3/3)
- 3.4 Éviter le surajustement grâce à la régularisation (1/2)
- 3.4 Éviter le surajustement grâce à la régularisation (2/2)
- 3.5 Résumé et conseils pratiques
- 3.6 Exercices
-
Chapitre 4. - Modèles personnalisés et entraînement avec TensorFlow
- 4.1 Présentation rapide de TensorFlow
- 4.2 Utiliser TensorFlow comme NumPy
- 4.3 Personnaliser des modèles et entraîner des algorithmes (1/5)
- 4.3 Personnaliser des modèles et entraîner des algorithmes (2/5)
- 4.3 Personnaliser des modèles et entraîner des algorithmes (3/5)
- 4.3 Personnaliser des modèles et entraîner des algorithmes (4/5)
- 4.3 Personnaliser des modèles et entraîner des algorithmes (5/5)
- 4.4 Fonctions et graphes TensorFlow
- 4.5 Exercices
- Chapitre 5. - Chargement et prétraitement de données avec TensorFlow
-
Chapitre 6. - Vision par ordinateur et réseaux de neurones convolutifs
- 6.1 L'architecture du cortex visuel
- 6.2 Couches de convolution (1/2)
- 6.2 Couches de convolution (2/2)
- 6.3 Couche de pooling
- 6.4 Architectures de CNN (1/4)
- 6.4 Architectures de CNN (2/4)
- 6.4 Architectures de CNN (3/4)
- 6.4 Architectures de CNN (4/4)
- 6.5 Implémenter un CNN ResNet-34 avec Keras
- 6.6 Utiliser des modèles préentraînés de Keras
- 6.7 Modèles préentraînés pour un transfert d'apprentissage
- 6.8 Classification et localisation
- 6.9 Détection d'objets (1/2)
- 6.9 Détection d'objets (2/2)
- 6.10 Segmentation sémantique
- 6.11 Exercices
- Chapitre 7. - Traitement des séries avec des RNR et des CNN
-
Chapitre 8. - Traitement automatique du langage naturel avec les RNR et les attentions
- 8.1 Générer un texte shakespearien à l'aide d'un RNR à caractères (1/2)
- 8.1 Générer un texte shakespearien à l'aide d'un RNR à caractères (2/2)
- 8.2 Analyse de sentiments (1/2)
- 8.2 Analyse de sentiments (2/2)
- 8.3 Réseau encodeur-décodeur pour la traduction automatique neuronale (1/2)
- 8.3 Réseau encodeur-décodeur pour la traduction automatique neuronale (2/2)
- 8.4 Mécanismes d'attention (1/3)
- 8.4 Mécanismes d'attention (2/3)
- 8.4 Mécanismes d'attention (3/3)
- 8.5 Innovations récentes dans les modèles de langage
- 8.6 Exercices
-
Chapitre 9. - Apprentissage de représentations et apprentissage génératif avec des autoencodeurs et des GAN
- 9.1 Représentations efficaces des données
- 9.2 ACP avec un autoencodeur linéaire sous-complet
- 9.3 Autoencodeurs empilés (1/2)
- 9.3 Autoencodeurs empilés (2/2)
- 9.4 Autoencodeurs convolutifs
- 9.5 Autoencodeurs récurrents
- 9.6 Autoencodeurs débruiteurs
- 9.7 Autoencodeurs épars
- 9.8 Autoencodeurs variationnels (1/2)
- 9.8 Autoencodeurs variationnels (2/2)
- 9.9 Réseaux antagonistes génératifs (GAN) (1/3)
- 9.9 Réseaux antagonistes génératifs (GAN) (2/3)
- 9.9 Réseaux antagonistes génératifs (GAN) (3/3)
- 9.10 Exercices
-
Chapitre 10. - Apprentissage par renforcement
- 10.1 Apprendre à optimiser les récompenses
- 10.2 Recherche de politique
- 10.3 Introduction à OpenAI Gym
- 10.4 Politiques par réseau de neurones
- 10.5 Évaluer des actions : le problème d'affectation de crédit
- 10.6 Gradients de politique
- 10.7 Processus de décision markoviens
- 10.8 Apprentissage par différence temporelle
- 10.9 Apprentissage Q
- 10.10 Implémenter l'apprentissage Q profond
- 10.11 Variantes de l'apprentissage Q profond
- 10.12 La bibliothèque TF-Agents (1/4)
- 10.12 La bibliothèque TF-Agents (2/4)
- 10.12 La bibliothèque TF-Agents (3/4)
- 10.12 La bibliothèque TF-Agents (4/4)
- 10.13 Quelques algorithmes RL populaires
- 10.14 Exercices
-
Chapitre 11. - Entraînement et déploiement à grande échelle de modèles TensorFlow
- 11.1 Servir un modèle TensorFlow (1/4)
- 11.1 Servir un modèle TensorFlow (2/4)
- 11.1 Servir un modèle TensorFlow (3/4)
- 11.1 Servir un modèle TensorFlow (4/4)
- 11.2 Déployer un modèle sur un périphérique mobile ou embarqué
- 11.3 Utiliser des GPU pour accélérer les calculs (1/3)
- 11.3 Utiliser des GPU pour accélérer les calculs (2/3)
- 11.3 Utiliser des GPU pour accélérer les calculs (3/3)
- 11.4 Entraîner des modèles sur plusieurs processeurs (1/3)
- 11.4 Entraîner des modèles sur plusieurs processeurs (2/3)
- 11.4 Entraîner des modèles sur plusieurs processeurs (3/3)
- 11.5 Exercices
- Le mot de la fin
- Annexe A. - Solutions des exercices (1/7)
- Annexe A. - Solutions des exercices (2/7)
- Annexe A. - Solutions des exercices (3/7)
- Annexe A. - Solutions des exercices (4/7)
- Annexe A. - Solutions des exercices (5/7)
- Annexe A. - Solutions des exercices (6/7)
- Annexe A. - Solutions des exercices (7/7)
- Annexe B. - Différentiation automatique (1/2)
- Annexe B. - Différentiation automatique (2/2)
- Annexe C. - Autres architectures de RNA répandues (1/2)
- Annexe C. - Autres architectures de RNA répandues (2/2)
- Annexe D. - Structures de données spéciales (1/2)
- Annexe D. - Structures de données spéciales (2/2)
- Annexe E. - Graphes TensorFlow (1/2)
- Annexe E. - Graphes TensorFlow (2/2)
- Index (1/2)
- Index (2/2)
Product information
- Title: Deep Learning avec Keras et TensorFlow
- Author(s):
- Release date: May 2020
- Publisher(s): Dunod
- ISBN: 9782100805020
You might also like
book
TensorFlow pour le Deep learning
Apprenez à résoudre des problèmes d'apprentissage automatique (même difficiles !) avec TensorFIow, la nouvelle bibliothèque logicielle …
book
Machine Learning avec Scikit-Learn
L’apprentissage automatique (Machine Learning) est aujourd’hui en pleine explosion. Mais de quoi s’agit-il exactement, et comment …
book
Hands-On Neural Networks with TensorFlow 2.0
A comprehensive guide to developing neural network-based solutions using TensorFlow 2.0 Key Features Understand the basics …
book
TensorFlow 2 Pocket Reference
This easy-to-use reference for TensorFlow 2 design patterns in Python will help you make informed decisions …