Kubeflow pour l'apprentissage automatique
by Trevor Grant, Holden Karau, Boris Lublinsky, Richard Liu, Ilan Filonenko
Chapitre 8. Inférence de modèle
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Note
Nous tenons à remercier Clive Cox et Alejandro Saucedo de Seldon pour leur grande contribution à ce chapitre.
La plus grande partie de l'attention portée à l'apprentissage automatique a été consacrée au développement d'algorithmes. Cependant, les modèles ne sont pas créés pour le plaisir de leur création, ils sont créés pour être mis en production. Habituellement, lorsque les gens parlent de mettre un modèle "en production", ils veulent dire effectuer une inférence.Comme présenté au chapitre 1 et illustré dans la figure 1-1, une solution d'inférence complète cherche à fournir des fonctionnalités de service, de surveillance et de mise à jour.
- Modèle servant
-
Place un modèle entraîné derrière un service qui peut traiter les demandes de prédiction.
- Surveillance des modèles
-
Surveille le serveur du modèle pour détecter toute irrégularité dans les performances, ainsi que la précision du modèle sous-jacent.
- Mise à jour du modèle
-
Gère entièrement le versionnage de tes modèles et simplifie la promotion et le retour en arrière entre les versions.
Ce chapitre explorera chacun de ces composants de base et définira les attentes relatives à leurs fonctionnalités. Compte tenu des attentes concrètes, nous établirons une liste d'exigences que ta solution d'inférence idéale devra satisfaire. Enfin, nous aborderons les offres ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access