Chapitre 7. Déployer PyTorch en production
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Jusqu'à présent, la majeure partie de ce livre s'est concentrée sur la conception et l'entraînement des modèles. Les chapitres précédents t'ont montré comment utiliser les capacités intégrées de PyTorch pour concevoir tes modèles et créer des modules NN, des fonctions de perte, des optimiseurs et d'autres algorithmes personnalisés. Dans le chapitre précédent, nous avons vu comment utiliser l'entraînement distribué et les optimisations de modèles pour accélérer les temps d'entraînement de tes modèles et minimiser les ressources nécessaires à leur exécution.
À ce stade, tu as tout ce qu'il faut pour créer des modèles de NN bien entraînés et à la pointe de la technologie, mais ne laisse pas tes innovations en vase clos. Il est maintenant temps de déployer tes modèles dans le monde par le biais d'applications.
Dans le passé, passer de la recherche à la production était une tâche difficile qui nécessitait une équipe d'ingénieurs logiciels pour déplacer les modèles PyTorch vers un framework et les intégrer dans un environnement de production (souvent non Python). Aujourd'hui, PyTorch comprend des outils intégrés et des bibliothèques externes pour favoriser un déploiement rapide dans divers environnements de production.
Dans ce chapitre, nous nous concentrons sur le déploiement de ton modèle pour l'inférence, et ...