Capitolo 7. Tecniche e strumenti avanzati di generazione del testo
Questo lavoro è stato tradotto utilizzando l'AI. Siamo lieti di ricevere il tuo feedback e i tuoi commenti: translation-feedback@oreilly.com
In , nel capitolo precedente, abbiamo visto come l'ingegneria del prompt possa fare miracoli per l'accuratezza del tuo modello linguistico a grandi dimensioni (LLM) di generazione del testo. Con alcune piccole modifiche, questi LLMs vengono guidati verso risposte più precise e mirate. Questo ha dimostrato quanto si possa guadagnare utilizzando tecniche che non mettono a punto l'LLM, ma che invece lo utilizzano in modo più efficiente, come l'ingegneria del prompt, relativamente semplice.
In questo capitolo continueremo questa riflessione. Cosa possiamo fare per migliorare ulteriormente l'esperienza e i risultati che otteniamo dal LLM senza dover mettere a punto il modello stesso?
Fortunatamente, un gran numero di metodi e tecniche ci permette di migliorare ulteriormente ciò che abbiamo iniziato nel capitolo precedente. Queste tecniche più avanzate sono alla base di numerosi sistemi incentrati sulla LLM e sono, probabilmente, una delle prime cose che gli utenti implementano quando progettano tali sistemi.
In questo capitolo esploreremo diversi metodi e concetti per migliorare la qualità del testo generato:
- Modello I/O
- Caricare e lavorare con le LLMs
- Memoria
- Aiutare gli LLMs a ricordare
- Agenti
- Combinare un comportamento complesso con strumenti esterni
- Catene
- Metodi e moduli ...