Chapitre 8. Créer un système complet de recherche conversationnelle et RAG
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
À l'ère du numérique, nous générons d'énormes quantités de données conversationnelles via les assistants IA, les applications de chat et les plateformes collaboratives. Ces conversations contiennent souvent des informations précieuses, des solutions à des problèmes, des idées créatives et des connaissances acquises qui deviennent de plus en plus difficiles à retrouver à mesure que leur volume augmente. Comment retrouver efficacement cette discussion spécifique sur les décorateurs Python datant d'il y a trois mois, ou te rappeler les conseils d'architecture donnés pour ton application web ?
Dans les chapitres précédents, nous avons exploré la manière dont les bases de données vectorielles traitent les articles de recherche statiques. Cependant, nos vies numériques personnelles sont désordonnées et conversationnelles. Si tu utilises des LLMs comme Claude ou ChatGPT pour ton travail, tu as probablement des milliers de messages contenant des informations « perdues ». Ce chapitre passe de la recherche dans les données publiques à la création d’un « deuxième cerveau » pour ton propre historique de chat.
Ce système gère les connaissances privées et personnelles en tenant compte de la nuance suivante : les conversations ont des caractéristiques uniques :
- Dépendances contextuelles
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access