Capítulo 10. Pipelines e MLOps
Este trabalho foi traduzido com recurso a IA. Agradecemos o teu feedback e comentários: translation-feedback@oreilly.com
Nos capítulos anteriores, demonstrámos como executar cada passo individual de um pipeline de ML típico, incluindo a ingestão de dados, a análise e a engenharia de caraterísticas - bem como a formação, afinação e implementação de modelos.
Neste capítulo, juntamos tudo em pipelines repetíveis e automatizados usando uma solução completa de operações de aprendizado de máquina (MLOps) com o SageMaker Pipelines. Também discutimos várias opções de orquestração de pipelines, incluindo AWS Step Functions, Kubeflow Pipelines, Apache Airflow, MLFlow e TensorFlow Extended (TFX).
Em seguida, vamos nos aprofundar na automação de nossos pipelines do SageMaker quando um novo código é confirmado, quando novos dados chegam ou em uma programação fixa. Descrevemos como executar novamente um pipeline quando detectamos alterações estatísticas em nosso modelo implantado, como desvio de dados ou viés de modelo. Também discutiremos o conceito de fluxos de trabalho "human-in-the-loop", que podem ajudar a melhorar a precisão do nosso modelo.
Operações de aprendizagem automática
O ciclo de vida completo de desenvolvimento de modelos requer, normalmente, uma estreita colaboração entre as equipas de aplicação, ciência de dados e DevOps para produzir com êxito os nossos modelos, como mostra a Figura 10-1.