Capitolo 3. Automatizzare il ciclo di vita di LLM
Questo lavoro è stato tradotto utilizzando l'AI. Siamo lieti di ricevere il tuo feedback e i tuoi commenti: translation-feedback@oreilly.com
Lo sviluppo e la distribuzione di un'applicazione basata su LLM è un'impresa iterativa e una pratica di sperimentazione costante che può portare a un debito tecnico significativo. Durante il ciclo di vita del modello, i team LLM creano diverse versioni dello stack di dati, modelli e pipeline. Non tutte le modifiche vengono documentate. E poi ci sono gli strumenti e le dipendenze! In tutta la pipeline di modelli, ci sono alcune somiglianze con l'operatività dei modelli ML deterministici (aka MLOps); tuttavia, ci sono anche diverse nuove sfide. In particolare, la differenza sostanziale tra LLMOps e MLOps è che questi modelli sono di natura generativa, il che può rendere molto più difficile la valutazione e il debug delle prestazioni del modello. Inoltre, l'ingegneria delle caratteristiche convenzionale non è più rilevante per i modelli linguistici di grandi dimensioni e, date le grandi dimensioni di questi modelli, un grande obiettivo per i team LLM è l'ottimizzazione delle prestazioni, che comprende la gestione della complessità del parallelismo dei dati e dei modelli, lo squilibrio del carico, la gestione della memoria e delle risorse, ecc.
LLMOps aiuta ad automatizzare e semplificare i processi per risolvere i problemi di comunicazione e sincronizzazione dei dati nell'intero ciclo di vita ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access