Comprendre les représentations vectorielles : pourquoi on en a besoinWord2Vec : la percée qui a tout changéDoc2Vec : des mots aux documentsDes représentations aux modèles linguistiques modernes : le lien avec TransformerTransformateurs à encodeur uniquement (BERT et ses variantes)Transformateurs à décodeur uniquement (famille GPT)Transformateurs encodeur-décodeur (T5, BART)Modèles d'embedding : les générateurs de vecteurs spécialisésDifférence par rapport aux modèles traditionnelsRôle dans les applications LLM modernesApplications pratiques et cas d'utilisationPipeline RAG simpleLa bibliothèque Sentence-Transformers : le couteau suisse des embeddings de texteBonnes pratiques pour l'utilisation de SentenceTransformers : un guide détailléLa couche d'encodage : la porte d'entrée vers l'apprentissage sans échantillonAnatomie des représentations de TransformerLien avec l'apprentissage sans échantillonCaractéristiques clés permettant l'apprentissage sans échantillonLimites et considérationsDernières évolutions et tendancesL'arithmétique vectorielle avec Word2Vec : un guide pratiqueÉtape 1 : Configuration et installationÉtape 2 : Chargement du modèle Word2Vec pré-entraînéÉtape 3 : Implémenter les fonctions arithmétiques vectoriellesÉtape 4 : Analogie classique roi-reineÉtape 5 : Autres analogies intéressantesÉtape 6 : Outil d'exploration interactifConclusion sur l'arithmétique vectorielleConclusion