Sistemas de produção de aprendizagem automática
by Robert Crowe, Hannes Hapke, Emily Caveness, Di Zhu
Capítulo 13. Modelo de infraestrutura de serviço
Este trabalho foi traduzido com recurso a IA. Agradecemos o teu feedback e comentários: translation-feedback@oreilly.com
Tal como qualquer outra aplicação, a sua infraestrutura de ML pode ser treinada e implementada no local, na sua própria infraestrutura de hardware. No entanto, esta abordagem requer a aquisição de hardware (máquinas físicas) e de GPUs para a formação e inferência de grandes modelos (redes neuronais profundas, ou DNNs). Isto pode ser viável para grandes empresas que executam e mantêm aplicações de ML durante muito tempo.
A opção viável para pequenas e médias empresas e equipas individuais é implementar numa nuvem e aproveitar a infraestrutura de hardware fornecida por fornecedores de serviços de nuvem, como a Amazon Web Services (AWS), a Google Cloud Platform (GCP) e a Microsoft Azure. A maioria dos fornecedores de serviços Cloud populares tem soluções especializadas de formação e implementação para modelos de ML. Estas incluem o AutoML no GCP e o Amazon SageMaker Autopilot no AWS.
Quando estiver a implementar modelos de ML no local (na sua própria infraestrutura de hardware), pode utilizar um servidor de modelos pré-construído de código aberto, como o TensorFlow Serving, o KServe ou o NVIDIA Triton.
Se optar por implementar modelos de ML numa Cloud, pode implementar modelos treinados em máquinas virtuais (VMs), como o EC2 ou o Google Compute Engine, e utilizar servidores de modelos, como o TensorFlow Serving, para ...