Skip to Content
Entwurf großer Sprachmodell-Anwendungen
book

Entwurf großer Sprachmodell-Anwendungen

by Suhas Pai
March 2025
Intermediate to advanced
366 pages
10h 45m
German
O'Reilly Media, Inc.
Content preview from Entwurf großer Sprachmodell-Anwendungen

Kapitel 9. Inferenz-Optimierung

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

In den letzten Kapiteln haben wir verschiedene Techniken kennengelernt, um LLMs für die Lösung bestimmter Aufgaben anzupassen und zu nutzen. In diesem Kapitel werden wir lernen, wie man mit LLMs in der Praxis effizient Inferenzen durchführen kann. Die große Größe von LLMs macht den Einsatz und die Schlussfolgerungen zu einer besonderen Herausforderung, da sie einen erheblichen Druck auf den Rechen-, Speicher- und Energiebedarf ausüben. Dies erweist sich vor allem bei Kantengeräten wie Mobiltelefonen als Herausforderung.

Im weiteren Verlauf des Kapitels konzentrieren wir uns auf den Bereich der Inferenzoptimierung und erörtern die Faktoren, die die LLM-Inferenzzeit beeinflussen. Anschließend werden wir eine Reihe von Optimierungstechniken vorstellen, darunter Caching, Wissensdestillation, frühzeitiges Verlassen, Quantisierung, parallele und spekulative Dekodierung und mehr.

LLM Inferenz-Herausforderungen

Was sind die Engpässe bei LLM-Schlussfolgerungen? Wie wir alle wissen, erfordern ihre gigantischen Größen enorme Rechen- und Speicherressourcen. Darüber hinaus verschärfen zwei weitere Faktoren die Situation:

  • Wie in Kapitel 4 beschrieben, basieren die heutigen LLMs größtenteils auf reinen Decodermodellen, die autoregressiv arbeiten. Das bedeutet, dass jedes Token nacheinander generiert wird, was zu einer sequentiellen ...

Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.

Read now

Unlock full access

More than 5,000 organizations count on O’Reilly

AirBnbBlueOriginElectronic ArtsHomeDepotNasdaqRakutenTata Consultancy Services

QuotationMarkO’Reilly covers everything we've got, with content to help us build a world-class technology community, upgrade the capabilities and competencies of our teams, and improve overall team performance as well as their engagement.
Julian F.
Head of Cybersecurity
QuotationMarkI wanted to learn C and C++, but it didn't click for me until I picked up an O'Reilly book. When I went on the O’Reilly platform, I was astonished to find all the books there, plus live events and sandboxes so you could play around with the technology.
Addison B.
Field Engineer
QuotationMarkI’ve been on the O’Reilly platform for more than eight years. I use a couple of learning platforms, but I'm on O'Reilly more than anybody else. When you're there, you start learning. I'm never disappointed.
Amir M.
Data Platform Tech Lead
QuotationMarkI'm always learning. So when I got on to O'Reilly, I was like a kid in a candy store. There are playlists. There are answers. There's on-demand training. It's worth its weight in gold, in terms of what it allows me to do.
Mark W.
Embedded Software Engineer

You might also like

Entwicklung KI-gestützter Produkte

Entwicklung KI-gestützter Produkte

Marily Nika
Projektmanagement kurz & gut

Projektmanagement kurz & gut

Daniel Brönimann, Christoph Bommer
Praktische Generative KI mit Transformatoren und Diffusionsmodellen

Praktische Generative KI mit Transformatoren und Diffusionsmodellen

Omar Sanseviero, Pedro Cuenca, Apolinário Passos, Jonathan Whitaker

Publisher Resources

ISBN: 9798341629080