Deep Learning avec Keras et TensorFlow

Book description

Cet ouvrage, conçu pour tous ceux qui souhaitent s'initier au deep learning (apprentissage profond), est la traduction de la deuxième partie du best-seller Hands-On Machine Learning with Scikit-Learn, Keras and TensorFlow (2e édition). Le deep learning est récent et il évolue vite. Ce livre en présente les principales techniques  : les réseaux de neurones profonds, capables de modéliser toutes sortes de données, les réseaux de convolution, capables de classifier des images, les segmenter et découvrir les objets ou personnes qui s'y trouvent, les réseaux récurrents, capables de gérer des séquences telles que des phrases, des séries temporelles, ou encore des vidéos, les autoencodeurs qui peuvent découvrir toutes sortes de structures dans des données, de façon non supervisée, et enfin le reinforcement learning (apprentissage par renforcement) qui permet de découvrir automatiquement les meilleures actions pour effectuer une tâche (par exemple un robot qui apprend à marcher). Ce livre présente TensorFlow, le framework de deep learning créé par Google. Il est accompagné de notebooks Jupyter qui contiennent tous les exemples de code du livre, afin que le lecteur puisse facilement tester et faire tourner les programmes. Il complète un premier livre du même auteur intitulé Machine Learning avec Scikit-Learn.

Table of contents

  1. Titre
  2. Copyright
  3. Table des matières
  4. Avant-propos (1/2)
  5. Avant-propos (2/2)
  6. Chapitre 1. - Les fondamentaux du Machine Learning
    1. 1.1 Installer le projet handson-ml2
    2. 1.2 Installer Tensorflow et Jupyter
    3. 1.3 Qu'est-ce que le Machine Learning ?
    4. 1.4 Comment le système apprend-il ?
    5. 1.5 Régression linéaire
    6. 1.6 Descente de gradient (1/2)
    7. 1.6 Descente de gradient (2/2)
    8. 1.7 Régression polynomiale
    9. 1.8 Courbes d'apprentissage
    10. 1.9 Modèles linéaires régularisés (1/2)
    11. 1.9 Modèles linéaires régularisés (2/2)
    12. 1.10 Régression logistique (1/2)
    13. 1.10 Régression logistique (2/2)
    14. 1.11 Exercices
  7. Chapitre 2. - Introduction aux réseaux de neurones artificiels avec Keras
    1. 2.1 Du biologique à l'artificiel (1/3)
    2. 2.1 Du biologique à l'artificiel (2/3)
    3. 2.1 Du biologique à l'artificiel (3/3)
    4. 2.2 Implémenter des MPC avec Keras (1/5)
    5. 2.2 Implémenter des MPC avec Keras (2/5)
    6. 2.2 Implémenter des MPC avec Keras (3/5)
    7. 2.2 Implémenter des MPC avec Keras (4/5)
    8. 2.2 Implémenter des MPC avec Keras (5/5)
    9. 2.3 Régler précisément les hyperparamètres d'un réseau de neurones (1/2)
    10. 2.3 Régler précisément les hyperparamètres d'un réseau de neurones (2/2)
    11. 2.4 Exercices
  8. Chapitre 3. - Entraînement de réseaux de neurones profonds
    1. 3.1 Problèmes de disparition et d'explosion des gradients (1/3)
    2. 3.1 Problèmes de disparition et d'explosion des gradients (2/3)
    3. 3.1 Problèmes de disparition et d'explosion des gradients (3/3)
    4. 3.2 Réutiliser des couches préentraînées (1/2)
    5. 3.2 Réutiliser des couches préentraînées (2/2)
    6. 3.3 Optimiseurs plus rapides (1/3)
    7. 3.3 Optimiseurs plus rapides (2/3)
    8. 3.3 Optimiseurs plus rapides (3/3)
    9. 3.4 Éviter le surajustement grâce à la régularisation (1/2)
    10. 3.4 Éviter le surajustement grâce à la régularisation (2/2)
    11. 3.5 Résumé et conseils pratiques
    12. 3.6 Exercices
  9. Chapitre 4. - Modèles personnalisés et entraînement avec TensorFlow
    1. 4.1 Présentation rapide de TensorFlow
    2. 4.2 Utiliser TensorFlow comme NumPy
    3. 4.3 Personnaliser des modèles et entraîner des algorithmes (1/5)
    4. 4.3 Personnaliser des modèles et entraîner des algorithmes (2/5)
    5. 4.3 Personnaliser des modèles et entraîner des algorithmes (3/5)
    6. 4.3 Personnaliser des modèles et entraîner des algorithmes (4/5)
    7. 4.3 Personnaliser des modèles et entraîner des algorithmes (5/5)
    8. 4.4 Fonctions et graphes TensorFlow
    9. 4.5 Exercices
  10. Chapitre 5. - Chargement et prétraitement de données avec TensorFlow
    1. 5.1 L'API Data (1/2)
    2. 5.1 L'API Data (2/2)
    3. 5.2 Le format TFRecord (1/2)
    4. 5.2 Le format TFRecord (2/2)
    5. 5.3 Prétraiter les caractéristiques d'entrée (1/2)
    6. 5.3 Prétraiter les caractéristiques d'entrée (2/2)
    7. 5.4 TF Transform
    8. 5.5 Le projet TensorFlow Datasets (TFDS)
    9. 5.6 Exercices
  11. Chapitre 6. - Vision par ordinateur et réseaux de neurones convolutifs
    1. 6.1 L'architecture du cortex visuel
    2. 6.2 Couches de convolution (1/2)
    3. 6.2 Couches de convolution (2/2)
    4. 6.3 Couche de pooling
    5. 6.4 Architectures de CNN (1/4)
    6. 6.4 Architectures de CNN (2/4)
    7. 6.4 Architectures de CNN (3/4)
    8. 6.4 Architectures de CNN (4/4)
    9. 6.5 Implémenter un CNN ResNet-34 avec Keras
    10. 6.6 Utiliser des modèles préentraînés de Keras
    11. 6.7 Modèles préentraînés pour un transfert d'apprentissage
    12. 6.8 Classification et localisation
    13. 6.9 Détection d'objets (1/2)
    14. 6.9 Détection d'objets (2/2)
    15. 6.10 Segmentation sémantique
    16. 6.11 Exercices
  12. Chapitre 7. - Traitement des séries avec des RNR et des CNN
    1. 7.1 Neurones et couches récurrents
    2. 7.2 Entraîner des RNR
    3. 7.3 Prévoir des séries chronologiques (1/2)
    4. 7.3 Prévoir des séries chronologiques (2/2)
    5. 7.4 Traiter les longues séries (1/3)
    6. 7.4 Traiter les longues séries (2/3)
    7. 7.4 Traiter les longues séries (3/3)
    8. 7.5 Exercices
  13. Chapitre 8. - Traitement automatique du langage naturel avec les RNR et les attentions
    1. 8.1 Générer un texte shakespearien à l'aide d'un RNR à caractères (1/2)
    2. 8.1 Générer un texte shakespearien à l'aide d'un RNR à caractères (2/2)
    3. 8.2 Analyse de sentiments (1/2)
    4. 8.2 Analyse de sentiments (2/2)
    5. 8.3 Réseau encodeur-décodeur pour la traduction automatique neuronale (1/2)
    6. 8.3 Réseau encodeur-décodeur pour la traduction automatique neuronale (2/2)
    7. 8.4 Mécanismes d'attention (1/3)
    8. 8.4 Mécanismes d'attention (2/3)
    9. 8.4 Mécanismes d'attention (3/3)
    10. 8.5 Innovations récentes dans les modèles de langage
    11. 8.6 Exercices
  14. Chapitre 9. - Apprentissage de représentations et apprentissage génératif avec des autoencodeurs et des GAN
    1. 9.1 Représentations efficaces des données
    2. 9.2 ACP avec un autoencodeur linéaire sous-complet
    3. 9.3 Autoencodeurs empilés (1/2)
    4. 9.3 Autoencodeurs empilés (2/2)
    5. 9.4 Autoencodeurs convolutifs
    6. 9.5 Autoencodeurs récurrents
    7. 9.6 Autoencodeurs débruiteurs
    8. 9.7 Autoencodeurs épars
    9. 9.8 Autoencodeurs variationnels (1/2)
    10. 9.8 Autoencodeurs variationnels (2/2)
    11. 9.9 Réseaux antagonistes génératifs (GAN) (1/3)
    12. 9.9 Réseaux antagonistes génératifs (GAN) (2/3)
    13. 9.9 Réseaux antagonistes génératifs (GAN) (3/3)
    14. 9.10 Exercices
  15. Chapitre 10. - Apprentissage par renforcement
    1. 10.1 Apprendre à optimiser les récompenses
    2. 10.2 Recherche de politique
    3. 10.3 Introduction à OpenAI Gym
    4. 10.4 Politiques par réseau de neurones
    5. 10.5 Évaluer des actions : le problème d'affectation de crédit
    6. 10.6 Gradients de politique
    7. 10.7 Processus de décision markoviens
    8. 10.8 Apprentissage par différence temporelle
    9. 10.9 Apprentissage Q
    10. 10.10 Implémenter l'apprentissage Q profond
    11. 10.11 Variantes de l'apprentissage Q profond
    12. 10.12 La bibliothèque TF-Agents (1/4)
    13. 10.12 La bibliothèque TF-Agents (2/4)
    14. 10.12 La bibliothèque TF-Agents (3/4)
    15. 10.12 La bibliothèque TF-Agents (4/4)
    16. 10.13 Quelques algorithmes RL populaires
    17. 10.14 Exercices
  16. Chapitre 11. - Entraînement et déploiement à grande échelle de modèles TensorFlow
    1. 11.1 Servir un modèle TensorFlow (1/4)
    2. 11.1 Servir un modèle TensorFlow (2/4)
    3. 11.1 Servir un modèle TensorFlow (3/4)
    4. 11.1 Servir un modèle TensorFlow (4/4)
    5. 11.2 Déployer un modèle sur un périphérique mobile ou embarqué
    6. 11.3 Utiliser des GPU pour accélérer les calculs (1/3)
    7. 11.3 Utiliser des GPU pour accélérer les calculs (2/3)
    8. 11.3 Utiliser des GPU pour accélérer les calculs (3/3)
    9. 11.4 Entraîner des modèles sur plusieurs processeurs (1/3)
    10. 11.4 Entraîner des modèles sur plusieurs processeurs (2/3)
    11. 11.4 Entraîner des modèles sur plusieurs processeurs (3/3)
    12. 11.5 Exercices
  17. Le mot de la fin
  18. Annexe A. - Solutions des exercices (1/7)
  19. Annexe A. - Solutions des exercices (2/7)
  20. Annexe A. - Solutions des exercices (3/7)
  21. Annexe A. - Solutions des exercices (4/7)
  22. Annexe A. - Solutions des exercices (5/7)
  23. Annexe A. - Solutions des exercices (6/7)
  24. Annexe A. - Solutions des exercices (7/7)
  25. Annexe B. - Différentiation automatique (1/2)
  26. Annexe B. - Différentiation automatique (2/2)
  27. Annexe C. - Autres architectures de RNA répandues (1/2)
  28. Annexe C. - Autres architectures de RNA répandues (2/2)
  29. Annexe D. - Structures de données spéciales (1/2)
  30. Annexe D. - Structures de données spéciales (2/2)
  31. Annexe E. - Graphes TensorFlow (1/2)
  32. Annexe E. - Graphes TensorFlow (2/2)
  33. Index (1/2)
  34. Index (2/2)

Product information

  • Title: Deep Learning avec Keras et TensorFlow
  • Author(s): Aurélien Géron
  • Release date: May 2020
  • Publisher(s): Dunod
  • ISBN: 9782100805020