Tokenisierung bei LLMsWie Tokenizer die Eingaben für das Sprachmodell aufbereitenLLMs herunterladen und ausführenWelche Faktoren sind bei der Tokenisierung entscheidend?Tokenisierung auf Wort-, Wortteil-, Zeichen- und Byte-EbeneEin Vergleich verschiedener trainierter TokenizerFaktoren, die darüber entscheiden, wie sich ein Tokenizer verhältToken-EmbeddingsSprachmodelle halten Embeddings für das Vokabular ihres Tokenizers vorKontextualisierte Word-Embeddings mit Sprachmodellen erstellenText-Embeddings (für Sätze oder ganze Dokumente)Wie Word-Embeddings jenseits von LLMs genutzt werden könnenVortrainierte Word-Embeddings nutzenDer Word2vec-Algorithmus und Training mittels Contrastive LearningEmpfehlungssysteme aufbauen, die auf Embeddings basierenSongs mithilfe von Embeddings empfehlenEmbedding-Modelle zur Empfehlung von Songs trainierenZusammenfassung