Systèmes de production à apprentissage automatique
by Robert Crowe, Hannes Hapke, Emily Caveness, Di Zhu
Chapitre 14. Exemples de services modèles
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Ce chapitre propose trois exemples qui adoptent une approche pratique pour servir les modèles ML de manière efficace et efficiente. Dans le premier exemple, nous ferons une plongée en profondeur dans le déploiement des modèles TensorFlow et JAX. Dans le deuxième exemple, nous aborderons la façon dont tu peux optimiser ta configuration de déploiement avec TensorFlow Profiler.
Pour notre troisième exemple, nous allons présenter TorchServe, la configuration de déploiement des modèles basés sur Torch.
Exemple : Déploiement de modèles TensorFlow avec TensorFlow Serving.
L'utilisation de bibliothèques de déploiement spécifiques à un cadre machine par le biais d'implémentations d'API Python offre un certain nombre d'avantages en termes de performances. Dans cet exemple, nous nous concentrerons sur TensorFlow Serving (TF Serving), qui te permet de déployer efficacement des modèles TensorFlow, Keras, JAX et scikit-learn. Si tu souhaites savoir comment déployer des modèles PyTorch, saute sur le troisième exemple de ce chapitre, où nous nous concentrerons sur TorchServe, la bibliothèque de déploiement spécifique à PyTorch.
Supposons que tu aies entraîné, évalué et exporté un modèle TensorFlow/Keras. Dans cette section, nous allons présenter comment configurer une instance de TF Serving avec Docker, montrer comment configurer ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access