Systèmes de production à apprentissage automatique
by Robert Crowe, Hannes Hapke, Emily Caveness, Di Zhu
Chapitre 12. Modèles de service
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Une fois qu'ils ont été formés, les modèles ML sont utilisés pour générer des prédictions, ou des résultats, un processus que l'on appelle l'exécution de l'inférence ou le service du modèle. La valeur ultime du modèle réside dans les résultats qu'il génère, qui doivent refléter le plus fidèlement possible les informations contenues dans les données d'entraînement, sans pour autant les reproduire. En d'autres termes, le modèle de ML doit bien se généraliser et être aussi précis, fiable et stable que possible. Dans ce chapitre, nous examinerons quelques-uns des nombreux modèles qui servent à servir les modèles, ainsi que l'infrastructure requise.
Les principales façons de servir un modèle sont soit un processus par lots, soit un processus en temps réel. Nous parlerons des deux, ainsi que du pré et post-traitement des données, et d'applications plus spécialisées telles que le service à la périphérie ou dans un navigateur.
Inférence par lots
Après avoir entraîné, évalué et réglé un modèle ML, le modèle est déployé en production pour générer des prédictions. Dans les applications où un délai est acceptable, un modèle peut être utilisé pour fournir des prédictions par lots, qui seront ensuite appliquées à un cas d'utilisation un peu plus tard.
On parle de prédiction basée sur l'inférence par lots lorsque ton modèle est utilisé ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access