June 2025
Intermediate to advanced
414 pages
9h 54m
German
In diesem Kapitel:
Bisher haben wir uns mit der allgemeinen Struktur von Large Language Models (großen Sprachmodellen, LLMs) beschäftigt und festgestellt, dass diese mit riesigen Textmengen vortrainiert werden. Insbesondere haben wir uns auf LLMs konzentriert, die nur den Decoder-Teil der Transformer-Architektur nutzen. Derartige Modelle liegen ChatGPT und anderen populären GPT-ähnlichen LLMs zugrunde.
Während der Vortrainingsphase verarbeiten ...
Read now
Unlock full access