Capítulo 8. PyTorch en la producción
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
Ahora que has aprendido a utilizar PyTorch para clasificar imágenes, texto y sonido, el siguiente paso es ver cómo implementar aplicaciones PyTorch en producción. En este capítulo, creamos aplicaciones que ejecutan inferencia sobre modelos PyTorch a través de HTTP y gRPC. A continuación, empaquetamos esas aplicaciones en contenedores Docker y las implementamos en un clúster Kubernetes que se ejecuta en Google Cloud.
En la segunda parte, examinamos TorchScript, una nueva tecnología introducida en PyTorch 1.0 que nos permite utilizar el trazado justo a tiempo (JIT) para producir modelos optimizados que se pueden ejecutar desde C++. También echamos un breve vistazo a cómo comprimir modelos con cuantización. En primer lugar, veamos cómo servir modelos.
Modelo de servicio
Hemos pasado los últimos seis capítulos construyendo modelos en PyTorch, pero construir un modelo es sólo una parte de construir una aplicación de aprendizaje profundo. Después de todo, un modelo puede tener una precisión asombrosa (u otra métrica relevante), pero si nunca hace ninguna predicción, ¿tiene algún valor? Lo que queremos es una forma fácil de empaquetar nuestros modelos para que puedan responder a solicitudes (ya sea a través de la web o por otros medios, como veremos) y puedan ejecutarse en producción con el mínimo esfuerzo.
Afortunadamente, Python ...
Get Programación de PyTorch para Aprendizaje Profundo now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.