August 2025
Intermediate to advanced
198 pages
5h 20m
German
In diesem Buch haben Sie die wichtigsten Konzepte der Sprachmodellierung kennengelernt. Es gibt viele fortgeschrittene Themen, die Sie auf eigene Faust erkunden können, und dieses letzte Kapitel gibt Ihnen Hinweise für weitere Studien. Ich habe Themen ausgewählt, die wichtige aktuelle Entwicklungen auf diesem Gebiet darstellen, von architektonischen Innovationen bis hin zu Sicherheitsbetrachtungen.
Eine Mixture of Experts (MoE) ist ein architektonisches Muster, das darauf abzielt, die Modellkapazität zu erhöhen, ohne dass die Kosten proportional steigen. Anstatt alle Tokens in einem Decoder-Block mit nur einem einzigen positionsbezogenen MLP zu verarbeiten, nutzt MoE mehrere spezialisierte ...
Read now
Unlock full access