Capítulo 10. Testes: Avaliação, monitorização e melhoria contínua
Este trabalho foi traduzido com recurso a IA. Agradecemos o teu feedback e comentários: translation-feedback@oreilly.com
No Capítulo 9, aprendeste a implementar a tua aplicação de IA na produção e a utilizar a Plataforma LangGraph para alojar e depurar a tua aplicação.
Embora a tua aplicação possa responder aos inputs do utilizador e executar tarefas complexas, o seu LLM subjacente é não determinístico e propenso a alucinações. Como discutido em capítulos anteriores, os LLMs podem gerar resultados imprecisos e desactualizados devido a uma variedade de razões, incluindo o prompt, o formato do input do utilizador e o contexto recuperado. Além disso, resultados de LLM prejudiciais ou enganosos podem prejudicar significativamente a marca de uma empresa e a fidelidade do cliente.
Para combater esta tendência para a alucinação, tens de construir um sistema eficiente para testar, avaliar, monitorizar e melhorar continuamente o desempenho das tuas aplicações LLM. Este processo de teste robusto permitir-te-á depurar e corrigir rapidamente problemas relacionados com a IA antes e depois de a tua aplicação estar em produção.
Neste capítulo, aprenderás a criar um sistema de testes iterativo ao longo das principais etapas do ciclo de vida de desenvolvimento de aplicações LLM e a manter o alto desempenho da tua aplicação.
Técnicas de teste ao longo do ciclo de desenvolvimento de aplicações LLM
Antes de construirmos o sistema de ...