Chapitre 6. Créer un système de génération augmentée par la recherche avec SQLite VSS et Ollama
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Dans les chapitres précédents, on s’est concentré sur les différents composants de la recherche vectorielle : la création d’embeddings et l’exécution de requêtes de similarité. Il est maintenant temps d’assembler ces éléments pour former un système fonctionnel de génération augmentée par la recherche (RAG).
Contrairement aux applications web à grande échelle qui s’appuient sur des clusters Cloud distribués, notre objectif ici est de construire un système RAG hautement performant, privé et entièrement local, fonctionnant sur un seul ordinateur de bureau. On utilisera SQLite VSS pour notre moteur de recherche et Ollama comme « cerveau » LLM local.
Les systèmes RAG résolvent une limite fondamentale des LLMs : leurs connaissances sont figées au moment de l'entraînement, ce qui empêche l'accès à des informations privées ou récentes. En enrichissant les LLMs d'un mécanisme de récupération, on crée un système qui répond aux questions en utilisant des connaissances à jour et spécifiques à un domaine.
Notre objectif est de construire un système de questions-réponses qui réponde intelligemment aux requêtes concernant le contenu de Reddit. Lorsqu’un utilisateur pose une question, le système va (1) rechercher dans les publications Reddit stockées pour trouver les informations ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access