May 2024
Intermediate to advanced
274 pages
7h 29m
German
In den vorangegangenen Kapiteln haben wir uns darauf konzentriert, vortrainierte Modelle wie BERT zu verwenden oder feinzutunen, um eine Vielzahl von Aufgaben bei der Verarbeitung natürlicher Sprache und der Computervision anzugehen. Diese Modelle haben zwar bei einem breiten Spektrum von Benchmarks den neuesten Stand der Technik demonstriert, doch reichen sie möglicherweise nicht aus, um komplexere oder domänenspezifischere Aufgaben zu lösen, die ein tieferes Verständnis des Problems erfordern.
In diesem Kapitel untersuchen wir das Konzept, neue LLM-Architekturen zu konstruieren, indem man vorhandene Modelle kombiniert. Durch die Kombination verschiedener Modelle können wir von deren Stärken ...
Read now
Unlock full access