Capítulo 3. RAG Parte II: Conversar com os teus dados
Este trabalho foi traduzido com recurso a IA. Agradecemos o teu feedback e comentários: translation-feedback@oreilly.com
No capítulo anterior, aprendeste a processar os dados e a criar e armazenar embeddings num vetor de armazenamento. Neste capítulo, aprenderás a recuperar eficientemente os embeddings e pedaços de documentos mais relevantes com base na consulta de um utilizador. Isto permite-te construir um prompt que contém documentos relevantes como contexto, melhorando a precisão do resultado final do LLM.
Este processo - que envolve a incorporação de uma consulta do utilizador, a recuperação de documentos semelhantes a partir de uma fonte de dados e a sua transmissão como contexto para o prompt enviado para o LLM - é formalmente conhecido como retrieval-augmented generation (RAG).
O RAG é um componente essencial da construção de aplicações LLM com chat que são precisas, eficientes e actualizadas. Neste capítulo, vais passar do básico às estratégias avançadas para construir um sistema RAG eficaz para várias fontes de dados (como armazenamentos vetoriais e bases de dados) e estruturas de dados (estruturadas e não estruturadas).
Mas primeiro, vamos definir o RAG e discutir as suas vantagens.
Apresentando a Geração Aumentada por Recuperação
RAG é uma técnica utilizada para melhorar a precisão dos resultados gerados pelos LLMs, fornecendo contexto de fontes externas. O termo foi originalmente cunhado num artigo de pesquisadores ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access