Capítulo 3. RAG Parte II: Conversar com os teus dados
Este trabalho foi traduzido com recurso a IA. Agradecemos o teu feedback e comentários: translation-feedback@oreilly.com
No capítulo anterior, aprendeste a processar os dados e a criar e armazenar embeddings num vetor de armazenamento. Neste capítulo, aprenderás a recuperar eficientemente os embeddings e pedaços de documentos mais relevantes com base na consulta de um utilizador. Isto permite-te construir um prompt que contém documentos relevantes como contexto, melhorando a precisão do resultado final do LLM.
Este processo - que envolve a incorporação de uma consulta do utilizador, a recuperação de documentos semelhantes a partir de uma fonte de dados e a sua transmissão como contexto para o prompt enviado para o LLM - é formalmente conhecido como retrieval-augmented generation (RAG).
O RAG é um componente essencial da construção de aplicações LLM com chat que são precisas, eficientes e actualizadas. Neste capítulo, vais passar do básico às estratégias avançadas para construir um sistema RAG eficaz para várias fontes de dados (como armazenamentos vetoriais e bases de dados) e estruturas de dados (estruturadas e não estruturadas).
Mas primeiro, vamos definir o RAG e discutir as suas vantagens.
Apresentando a Geração Aumentada por Recuperação
RAG é uma técnica utilizada para melhorar a precisão dos resultados gerados pelos LLMs, fornecendo contexto de fontes externas. O termo foi originalmente cunhado num artigo de pesquisadores ...