Capítulo 9. Implantação: Lançando seu aplicativo de IA na produção
Este trabalho foi traduzido com recurso a IA. Agradecemos o teu feedback e comentários: translation-feedback@oreilly.com
Até agora, explorámos os principais conceitos, ideias e ferramentas para te ajudar a construir a funcionalidade central da tua aplicação de IA. Aprendeste a utilizar a LangChain e a LangGraph para gerar resultados LLM, indexar e recuperar dados, e ativar a memória e a agência.
Mas a tua aplicação está limitada ao teu ambiente local, pelo que os utilizadores externos ainda não podem aceder às suas funcionalidades.
Neste capítulo, aprenderás as melhores práticas para implantar seu aplicativo de IA na produção. Também exploraremos várias ferramentas para depurar, colaborar, testar e monitorar seus aplicativos LLM.
Vamos lá começar.
Pré-requisitos
Em fim de implantar efetivamente seu aplicativo de IA, é necessário utilizar vários serviços para hospedar seu aplicativo, armazenar e recuperar dados e monitorar seu aplicativo. No exemplo de implantação deste capítulo, vamos incorporar os seguintes serviços:
- Loja vetorial
-
Supabase
- Monitorização e depuração
-
LangSmith
- API de backend
-
Plataforma LangGraph
Iremos aprofundar cada um destes componentes e serviços e ver como adaptá-los ao teu caso de utilização. Mas, primeiro, vamos instalar as dependências necessárias e configurar as variáveis de ambiente.
Se quiseres seguir o exemplo, bifurca este modelo LangChain na tua conta GitHub. Este repositório ...